Un employé d'OpenAI démissionne après avoir perdu confiance dans l'entreprise

Un employé d'OpenAI démissionne après avoir perdu confiance dans l'entreprise

Un agent de sécurité d'OpenAI a démissionné après avoir affirmé avoir perdu confiance dans le fait que l'entreprise se comportera de manière responsable lors du lancement de l’intelligence artificielle générale (AGI), qui seraient même capables de surpasser les humains dans différentes tâches.

Comme détaillé Interne du milieu des affaires, Daniel Kokotajlo, chercheur d'OpenAI qui travaille au sein de l'équipe d'éthique de l'entreprise, a démissionné en avril dernier pour rejoindre perdre l'enthousiasme pour le projet de création d'une IA générale.

Le chercheur a poursuivi en déclarant que a demandé à l'entreprise de suspendre le développement dans le but d’analyser et de gérer l’impact que ce type de modèles pourrait avoir sur la société. En fait, dans un message sur le forum, Kokotajlo a expliqué qu'il pensait « que la plupart des gens qui réclament une pause tentent de s'opposer à une « pause sélective » et à une véritable pause qui s'appliquerait aux grands laboratoires qui sont à l'avant-garde du progrès. », et que cette « pause sélective » finirait par ne pas s'appliquer aux grandes entreprises, comme OpenAI.

La raison est évidente : les sociétés d’intelligence artificielle, ainsi que les grandes entreprises qui ont également la capacité de développer des modèles d’IA, sont constamment en concurrence les unes avec les autres pour lancer de nouveaux produits d’intelligence artificielle le plus rapidement possible. Une pause dans OpenAI signifierait un retard dans le développement d'une AGI par rapport à d'autres entreprises.

OpenAI et sa volonté de développer l'IA généraliste

ChatGPT, l'application d'IA générative disponible sur le Google Play Store

Curieusement, le développement de l'intelligence artificielle générale a été l'une des principales raisons du feuilleton OpenAI et du licenciement raté de Sam Altman, PDG de l'entreprise, le conseil d'administration craignant que l'exécutif n'approuve le lancement d'une IA très puissante. produits sans en évaluer au préalable les conséquences.

A ce sujet, plusieurs dirigeants et experts en intelligence artificielle, dont Elon Musk, Ils ont demandé de suspendre le développement et la formation de nouveaux modèles IMême pour évaluer si elles pourraient certainement avoir un impact négatif sur la société. L'objectif de la pause, qui devrait durer six mois, était de créer une série de protocoles de sécurité partagés.

Pour le moment, aucune entreprise n'a présenté de modèle général d'IA menaçant l'humanité, même si l'on sait qu'OpenAI y travaille avec une AGI nommée en interne Q* (Q-Star), qui est même capable d'effectuer des opérations mathématiques.

A lire également