D’anciens employés d’OpenAI publient un document « un droit d'alerte » mettant en garde contre les risques avancés de l’IA

 De : https://www.naturalnews.com/2024-06-17-openai-employees-rightly-warn-advanced-ai-risks.html

Par Ethan Huff -17 juin 2024


Une cohorte d’experts et de développeurs en intelligence artificielle (IA) qui travaillaient pour OpenAI et Google avertissent que la technologie qu’ils ont contribué à mettre au point constitue une menace sérieuse pour l’humanité.

Bien qu'ils continuent de dire qu'ils « croient au potentiel de la technologie de l'IA pour apporter des bénéfices sans précédent à l'humanité », les auteurs d'un article intitulé « Un droit d'alerte sur l'intelligence artificielle avancée » affirment qu'il existe également des « risques sérieux ».

"Ces risques vont du renforcement des inégalités existantes à la manipulation et à la désinformation, en passant par la perte de contrôle des systèmes d'IA autonomes pouvant entraîner l'extinction de l'humanité", écrivent-ils.

"Les entreprises d'IA elles-mêmes ont reconnu ces risques, tout comme les gouvernements du monde entier et d'autres experts en IA", poursuivent-ils, citant tout leur travail avec des hyperliens tout au long de l'article.

Avec « des conseils suffisants de la part de la communauté scientifique, des décideurs politiques et du public, ces experts espèrent que l’IA pourra être maîtrisée pour le bénéfice de l’humanité. .

"Les sociétés d'IA sont fortement incitées financièrement à éviter une surveillance efficace", notent les auteurs, "et nous ne pensons pas que des structures de gouvernance d'entreprise sur mesure soient suffisantes pour changer cela."

(Connexe : Avez-vous été témoin du procès du New York Times contre Microsoft et OpenAI pour violation des droits d'auteur sur l'IA ?)

Les entreprises d’IA en savent bien plus que le grand public sur les risques

Même si elles ne le diront jamais publiquement, les sociétés d’IA comme OpenAI et Google, qui gèrent un programme d’IA effrayant appelé « DeepMind », connaissent très bien les risques sérieux liés à cette technologie. Mais c’est bien trop rentable pour eux de s’arrêter.

Nous construisons l’infrastructure de la liberté humaine et donnons aux gens les moyens d’être informés, en bonne santé et conscients. Explorez notre plateforme de liberté d'expression décentralisée, peer-to-peer et non censurable Brighteon.io ici . Découvrez nos outils d'IA générative téléchargeables gratuitement sur Brighteon.AI . Chaque achat sur HealthRangerStore.com contribue à financer nos efforts pour créer et partager davantage d'outils pour doter l'humanité de connaissances et d'abondance.

Dans l’état actuel des choses, il existe très peu d’obligations légales obligeant les entreprises d’IA à divulguer au gouvernement ce qu’elles savent sur les technologies qu’elles développent. Pire encore, les exigences en matière de divulgation publique,  n’existent pratiquement pas.

"Nous ne pensons pas qu'on puisse compter sur eux pour le partager volontairement", préviennent les auteurs.

"Tant qu'il n'y aura pas de contrôle gouvernemental efficace sur ces sociétés, les employés actuels et anciens seront parmi les rares personnes qui peuvent les tenir responsables devant le public. Pourtant, de larges accords de confidentialité nous empêchent d'exprimer nos préoccupations, sauf auprès des entreprises mêmes qui pourraient le faire. Nous ne parvenons pas à résoudre ces problèmes. »

Quant aux protections existantes des lanceurs d’alerte, elles sont également insuffisantes car elles se concentrent sur les activités illégales – et il n’y a rien d’illégal, pour le meilleur ou pour le pire, dans le développement de systèmes d’IA avancés capables de contrôler le monde.

Bon nombre des risques connus liés à la technologie de l’IA ne sont pas encore réglementés – et ne le seront peut-être jamais de manière adéquate. Cela signifie que les entreprises d’IA sont fortement incitées à exercer des représailles contre quiconque tente de dire la triste vérité sur l’IA.

Malgré cela, les auteurs et signataires de l'article « Droit d'alerte » appellent toutes les entreprises d'IA du monde entier à accepter volontairement une série d'engagements et de principes, y compris la promesse de ne jamais conclure ou appliquer un accord interdisant le « dénigrement » ou critique de leur travail en matière d’IA.

Les auteurs souhaitent également que les entreprises d’IA  acceptent de :

- Permettre aux salariés, actuels et anciens, de faire part de manière anonyme de leurs préoccupations concernant l'IA aux chefs d'entreprise

- Soutenir une culture de critique ouverte de l'IA

- Ne pas exercer de représailles contre les employés actuels et anciens qui partagent publiquement ce qu'ils savent sur l'IA

Les signataires de l'article comprennent :

Jacob Hilton, anciennement OpenAI

Daniel Kokotajlo, anciennement OpenAI

Ramana Kumar, anciennement Google DeepMind

Neel Nanda, actuellement Google DeepMind, anciennement Anthropic

William Saunders, anciennement OpenAI

Carroll Wainwright, anciennement OpenAI

Daniel Ziegler, anciennement OpenAI

Anonyme, actuellement OpenAI

Il y avait également six signataires anonymes, qui travaillaient tous pour OpenAI.

Yoshua Bengio, Geoffrey Hinton et Stuart Russell ont également soutenu l'appel à l'action « Droit d'alerte ».

Quelle que soit la façon dont vous l’analysez, l’IA est une recette pour un désastre humain. Apprenez-en davantage sur FutureTech.news .

Les sources de cet article incluent :

RightToWarn.ai

NaturalNews.com

Commentaires

Posts les plus consultés de ce blog

Jacques Attali : "L'avenir de la vie" 1981 - Extrait .....et rectifications

HCR-HCE - CE N'EST PAS VOUS QUI ĒTES FOU

Nous avons désormais la preuve que les vaccins COVID endommagent les capacités cognitives