banner
Maison / Blog / Les experts en IA renient Musk
Blog

Les experts en IA renient Musk

Nov 27, 2023Nov 27, 2023

(Cette histoire du 31 mars a été corrigée pour montrer que la Musk Foundation est un donateur majeur, et non le principal donateur de FLI, au paragraphe 6)

Par Martin Coulter

LONDRES (Reuters) – Quatre experts en intelligence artificielle ont exprimé leur inquiétude après que leurs travaux aient été cités dans une lettre ouverte – cosignée par Elon Musk – exigeant une pause urgente dans la recherche.

La lettre, datée du 22 mars et avec plus de 1 800 signatures vendredi, appelait à un disjoncteur de six mois dans le développement de systèmes "plus puissants" que le nouveau GPT-4 d'OpenAI soutenu par Microsoft, qui peut tenir une conversation de type humain, composer des chansons et résumer de longs documents.

Depuis la sortie du prédécesseur de GPT-4, ChatGPT, l'année dernière, des sociétés rivales se sont précipitées pour lancer des produits similaires.

La lettre ouverte indique que les systèmes d'IA dotés d'une "intelligence compétitive humaine" posent de graves risques pour l'humanité, citant 12 recherches d'experts, notamment des universitaires ainsi que des employés actuels et anciens d'OpenAI, Google et sa filiale DeepMind.

Des groupes de la société civile aux États-Unis et dans l'UE ont depuis pressé les législateurs de freiner les recherches d'OpenAI. OpenAI n'a pas immédiatement répondu aux demandes de commentaires.

Les critiques ont accusé le Future of Life Institute (FLI), l'organisation à l'origine de la lettre, de donner la priorité aux scénarios apocalyptiques imaginaires par rapport aux préoccupations plus immédiates concernant l'IA, telles que les préjugés racistes ou sexistes. La Fondation Musk est un donateur majeur de FLI.

Parmi les recherches citées figurait "On the Dangers of Stochastic Parrots", un article bien connu co-écrit par Margaret Mitchell, qui supervisait auparavant la recherche éthique sur l'IA chez Google.

Mitchell, maintenant scientifique en chef de l'éthique de la société d'intelligence artificielle Hugging Face, a critiqué la lettre, déclarant à Reuters qu'il n'était pas clair ce qui comptait comme "plus puissant que GPT4".

"En traitant beaucoup d'idées douteuses comme des données, la lettre affirme un ensemble de priorités et un récit sur l'IA qui profite aux partisans du FLI", a-t-elle déclaré. "Ignorer les dommages actifs en ce moment est un privilège que certains d'entre nous n'ont pas."

Ses co-auteurs Timnit Gebru et Emily M. Bender ont critiqué la lettre sur Twitter, cette dernière qualifiant certaines de ses affirmations de "déséquilibrées".

Le président du FLI, Max Tegmark, a déclaré à Reuters que la campagne n'était pas une tentative d'entraver l'avantage commercial d'OpenAI.

"C'est assez hilarant. J'ai vu des gens dire:" Elon Musk essaie de ralentir la concurrence "", a-t-il déclaré, ajoutant que Musk n'avait joué aucun rôle dans la rédaction de la lettre. "Il ne s'agit pas d'une seule entreprise."

RISQUES MAINTENANT

Shiri Dori-Hacohen, professeure adjointe à l'Université du Connecticut, a également contesté la mention de son travail dans la lettre. L'année dernière, elle a co-écrit un article de recherche affirmant que l'utilisation généralisée de l'IA posait déjà de sérieux risques.

Ses recherches ont fait valoir que l'utilisation actuelle des systèmes d'IA pourrait influencer la prise de décision en matière de changement climatique, de guerre nucléaire et d'autres menaces existentielles.

Elle a déclaré à Reuters: "L'IA n'a pas besoin d'atteindre une intelligence de niveau humain pour exacerber ces risques."

"Il y a des risques non existentiels qui sont vraiment, vraiment importants, mais qui ne reçoivent pas le même genre d'attention au niveau hollywoodien."

Invité à commenter les critiques, Tegmark de FLI a déclaré que les risques à court et à long terme de l'IA devraient être pris au sérieux.

"Si nous citons quelqu'un, cela signifie simplement que nous prétendons qu'il approuve cette phrase. Cela ne signifie pas qu'il approuve la lettre, ou que nous approuvons tout ce qu'il pense", a-t-il déclaré à Reuters.

Dan Hendrycks, directeur du Center for AI Safety basé en Californie, qui a également été cité dans la lettre, s'en est tenu à son contenu, déclarant à Reuters qu'il était judicieux d'envisager des événements de cygne noir – ceux qui semblent peu probables, mais qui auraient des conséquences dévastatrices.

La lettre ouverte a également averti que des outils d'IA génératifs pourraient être utilisés pour inonder Internet de "propagande et de contrevérité".

Dori-Hacohen a déclaré qu'il était "assez riche" pour Musk de l'avoir signé, citant une augmentation signalée de la désinformation sur Twitter suite à son acquisition de la plateforme, documentée par le groupe de la société civile Common Cause et d'autres.

Twitter lancera bientôt une nouvelle structure de frais pour l'accès à ses données de recherche, ce qui pourrait entraver la recherche sur le sujet.

"Cela a eu un impact direct sur le travail de mon laboratoire, et celui effectué par d'autres qui étudient la mésinformation et la désinformation", a déclaré Dori-Hacohen. "Nous opérons avec une main attachée dans le dos."

Musk et Twitter n'ont pas immédiatement répondu aux demandes de commentaires.

(Reportage par Martin Coulter; édité par Philippa Fletcher)