OpenAI dans une procédure judiciaire en diffamation pour une "hallucination " de ChatGPT

 De : https://healthimpactnews.com/2023/openai-hit-with-first-defamation-suit-over-chatgpt-hallucination-exposing-the-real-dangers-of-ai/

Exposer les vrais dangers de l'IA

Commentaires de Brian Shilhavy
Rédacteur en chef, Health Impact News 9 juin 2023

Les programmes de chat d'IA sont devenus si rapidement une partie si importante de la culture en ligne que beaucoup de gens sont encore dupés par ses balbutiements et ses limites, même si les propriétaires de ces programmes d'IA ont été très clairs pour avertir le public que le texte qu'ils produisent NE PEUT PAS être digne de confiance car ils produisent souvent de fausses informations ou même inventent simplement des choses, si les données nécessaires pour produire une réponse correcte ne sont pas disponibles.

Ils appellent ces fausses informations une "hallucination" de l'IA.

Deux reportages récents démontrent à quel point il est insensé et dangereux d'utiliser des programmes comme ChatGPT pour des applications du monde réel en se fiant à la sortie fournie par ChatGPT.

Isaiah Poritz de Bloomberg Law a rapporté cette semaine qu'OpenAI, la société qui produit ChatGPT, a été frappée par son premier procès en diffamation lorsqu'elle aurait accusé à tort un homme géorgien de détournement d'argent.

OpenAI frappé avec le premier procès en diffamation suite à l'hallucination de ChatGPT

OpenAI LLC fait face à une poursuite en diffamation de la part d'un animateur de radio géorgien qui a affirmé que le programme d'intelligence artificielle virale ChatGPT avait généré une fausse plainte légale l'accusant de détournement d'argent.

Ce cas , le premier du genre,   survient alors que les programmes d'IA générative font l'objet d'un examen minutieux pour leur capacité à diffuser des informations erronées et à « halluciner » de fausses sorties, y compris de  faux précédents juridiques .

Mark Walters a déclaré dans son procès devant le tribunal de l'État de Géorgie que le chatbot avait fourni la fausse plainte à Fred Riehl, le rédacteur en chef de la publication sur les armes à feu AmmoLand, qui rendait compte d'une affaire judiciaire réelle se déroulant dans l'État de Washington.

Riehl a demandé à ChatGPT de fournir un résumé de  Second Amendment Foundation v. Ferguson , une affaire portée devant le tribunal fédéral de Washington accusant le procureur général de l'État, Bob Ferguson, d'avoir abusé de son pouvoir en bloquant les activités de la fondation des droits des armes à feu.

Cependant, ChatGPT aurait fourni un résumé de l'affaire à Riehl indiquant que le fondateur de la Second Amendement Foundation, Alan Gottlieb, poursuivait Walters pour "escroquerie et détournement de fonds" de la fondation en tant que directeur financier et trésorier.

"Chaque déclaration de fait dans le résumé concernant Walters est fausse", selon le procès en diffamation, déposé le 5 juin.

OpenAI n'a pas renvoyé immédiatement une demande de commentaire. ( Article complet .)

Dans un autre rapport récent, un avocat a été assez fou pour utiliser ChatGPT pour rechercher des affaires judiciaires dans un procès réel, et il a trouvé de faux procès qui n'existaient même pas, et cela a été déposé devant un tribunal de New York ! Le juge, naturellement, a été indigné.

Un avocat utilise ChatGPT au tribunal et le "regrette beaucoup" maintenant

Un avocat de New York a été critiqué pour avoir utilisé ChatGPT pour des recherches juridiques dans le cadre d'un procès contre une compagnie aérienne colombienne.

Steven Schwartz, un avocat du cabinet d'avocats new-yorkais Levidow, Levidow & Oberman, a été embauché par Robert Mata pour intenter une action en justice contre Avianca Airlines.

Mata affirme avoir subi la blessure d'un chariot de service lors de son vol avec la compagnie aérienne en 2019,  selon  un rapport du 28 mai de CNN Business.

Cependant, après qu'un juge a remarqué des incohérences et des erreurs factuelles dans la documentation de l'affaire, Schwartz a admis avoir utilisé ChatGPT pour ses recherches juridiques,  selon  un affidavit sous serment du 24 mai.

Il affirme que c'était la première fois qu'il utilisait ChatGPT pour des recherches juridiques et "n'était pas au courant de la possibilité que son contenu puisse être faux".

Dans un  dossier du tribunal du 5 avril , le juge présidant l'affaire a déclaré :

"Six des cas soumis semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes."

Le juge a en outre affirmé que certains cas référencés dans les observations n'existaient pas et qu'il y avait un cas où un numéro de dossier sur un dossier avait été confondu avec un autre dossier judiciaire. ( Article complet .)

Je suis tombé sur un excellent article aujourd'hui d'Aleksandar Svetski exposant le battage médiatique autour de Chat AI et détaillant les véritables dangers de Chat AI, qu'il appelle "La grande homogénéisation", où toutes les données sur Internet sont contrôlées par un seul récit, un sujet  sur lequel j'ai également mis en garde.

Il s'agit d'un article à lire absolument si vous voulez bien comprendre ce qui se passe aujourd'hui avec Chat AI et comment riposter.

SI NOUS NE FAISONS PAS ATTENTION, LA RÉVOLUTION DE L'IA POURRAIT DEVENIR LA « GRANDE HOMOGÉNÉISATION »

À mesure que l'intelligence artificielle se développe, les tentatives de contrôle augmentent également. Mais, si nous pouvons différencier les vrais risques des faux risques, cette technologie pourrait être utilisée pour encourager la diversité de pensée et d'idées.

par Aleksandar Svetski
Bitcoin Magazine

Extraits :

Le monde change sous nos yeux. L'intelligence artificielle (IA) est une percée technologique révolutionnaire, mais probablement pas pour les raisons que vous pourriez penser ou imaginer.

Vous avez probablement entendu quelque chose du genre "L'intelligence générale artificielle (IAG) est au coin de la rue" ou "Maintenant que le langage est résolu, la prochaine étape est l'IA consciente".

Eh bien… je suis ici pour vous dire que ces concepts sont tous deux  des faux-fuyants . Ce sont soit les illusions naïves des technologues qui croient que Dieu est dans les circuits, soit l'incitation délibérée à la peur et à l'hystérie par des personnes plus malveillantes avec des arrière-pensées.

Je  ne  pense pas que l'AGI soit une menace ou que nous ayons un "problème de sécurité de l'IA", ou que nous soyons au coin d'une singularité avec des machines.

Mais…

Je crois que ce changement de paradigme technologique constitue une menace importante pour l'humanité - ce qui est en fait la  seule  chose sur laquelle je peux être un peu d'accord avec le courant dominant - mais pour des raisons complètement différentes.

Pour savoir ce qu'ils sont, essayons d'abord de comprendre ce qui se passe réellement ici.

VOICI… LE PERROQUET STOCHASTIQUE !

La technologie est un amplificateur. Cela rend les bons meilleurs et les mauvais pires.

Tout comme un marteau est une technologie qui peut être utilisée pour construire une maison ou frapper quelqu'un sur la tête, les ordinateurs peuvent être utilisés pour documenter des idées qui changent le monde, ou ils peuvent être utilisés pour exploiter les monnaies numériques de la banque centrale (CDBC) qui vous transforment  en  dames à chats communistes cinglées  travaillant à la Banque centrale européenne.

Il en va de même pour l'IA. C'est un outil. C'est une technologie. Ce  n'est pas une nouvelle forme de vie, malgré ce que  veulent désespérément croire  les nerds solitaires qui  demandent que le progrès s'arrête .

Ce qui rend l'IA générative si intéressante, ce n'est pas qu'elle soit sensible, mais avec elle  c'est la première fois de notre histoire que nous « parlons » ou communiquons avec autre chose qu'un être humain, de manière cohérente. Le plus proche que nous ayons été de cela avant ce point a été avec… des perroquets.

Oui :  des perroquets !

Vous pouvez entraîner un perroquet à parler et répondre, et vous pouvez en quelque sorte le comprendre, mais parce que nous savons que ce n'est pas vraiment un humain et qu'il ne comprend vraiment rien, nous ne sommes pas si impressionnés.

Mais l'IA générative… eh bien, c'est une autre histoire. Nous la connaissons depuis six mois maintenant (dans le grand public) et nous n'avons aucune idée précise de son fonctionnement sous le capot. Nous tapons quelques mots, et il répond comme ce nerd ennuyeux, politiquement correct et  sage que vous connaissez dans la classe… ou votre émission Netflix moyenne.

En fait, vous avez probablement même parlé avec quelqu'un comme ça lors d'appels d'assistance à Booking.com, ou à tout autre service dans lequel vous avez dû vous connecter ou discuter en ligne. En tant que tel, vous êtes immédiatement choqué par les réponses.

"Putain de merde", vous dites-vous. "Cette chose parle comme une vraie personne!"

L'anglais est impeccable. Pas de fautes d'orthographe. Les phrases ont du sens. Ce n'est pas seulement grammaticalement exact, mais aussi sémantiquement.

Putain de merde ! Il doit être vivant !

Vous ne réalisez pas que vous parlez à un  perroquet stochastique hautement sophistiqué . Il s'avère que le langage est un peu plus basé sur des règles que ce que nous pensions tous, et les moteurs de probabilités peuvent en fait faire un excellent travail d'  émulation de  l'intelligence à travers le cadre ou l'élaboration du langage.

La loi des grands nombres a encore frappé, et les maths remportent une nouvelle victoire !

Mais qu'est ce que ça veut dire? Quel est mon point de vue ?

Que ce n'est pas utile ? Que c'est la preuve que ce n'est pas un chemin vers AGI ?

Pas nécessairement, des deux côtés.

Il y a beaucoup d'utilité dans un tel outil. En fait, la plus grande utilité réside probablement dans son application en tant que "MOT" ou "Midwit Obsolescence Technology". Les journalistes éveillés et les innombrables "créateurs de contenu" qui depuis des années parlent beaucoup mais ne disent rien, sont maintenant comme des dinosaures qui regardent la comète incinérer tout ce qui les entoure. C'est une belle chose. La vie gagne à nouveau.

Bien sûr, ces outils sont également parfaits pour concevoir, coder plus rapidement, faire un apprentissage de haut niveau, etc.

Mais d'un point de vue AGI et conscience,  qui sait ?  Il y a peueueueueut-être un chemin là-bas, mais mon intuition me dit que nous  en sommes loin, donc je ne retiens pas mon souffle. Je pense que la conscience est tellement plus complexe, et penser que nous l'avons transformée avec des machines à probabilités est un étrange mélange d'ignorance,  de naïveté et… eh bien… de vide.

Alors, quel est mon problème et quel est le risque ?

ENTREZ DANS L'ÂGE DU LUI ( language user interface)

Rappelez-vous ce que j'ai dit à propos des outils.

Les ordinateurs sont sans doute l'outil le plus puissant que l'humanité ait construit. Et les ordinateurs ont connu l'évolution suivante :

  1. Cartes perforées
  2. Ligne de commande
  3. Interface utilisateur graphique, c'est-à-dire pointer et cliquer
  4. Mobile, c'est-à-dire les pouces et les tapotements
À mesure que l'intelligence artificielle se développe, les tentatives de contrôle augmentent également.  Mais, si nous pouvons différencier les vrais risques des faux risques, cette technologie pourrait être utilisée pour encourager la diversité de pensée et d'idées.

Source : Auteur

Et maintenant, nous entrons dans l'ère de la LUI, ou "Language User Interface".

C'est  le grand changement de paradigme. Ce n'est pas AGI, mais LUI. À l'avenir, chaque application avec laquelle nous interagissons aura une interface conversationnelle, et nous ne serons plus limités par la vitesse à laquelle nos doigts peuvent appuyer sur les touches ou les écrans.

Parler la « langue » est des ordres de grandeur plus rapide que de taper . La pensée est probablement un autre niveau supérieur, mais je ne mettrai pas d'électrodes dans ma tête de si tôt. En fait, les LUI rendent probablement obsolète le besoin d'une technologie de type Neuralink, car les risques associés à l'implantation de puces dans votre cerveau l'emporteront sur tout avantage marginal par rapport au simple fait de parler.

Dans tous les cas,  dans cette décennie, nous passerons de l'utilisation d'interfaces utilisateur graphiques à la communication avec nos applications.

Et c'est là que réside le danger.

De la même manière que Google détermine aujourd'hui ce que nous voyons dans les recherches, et Twitter, Facebook, Tik Tok et Instagram nous "alimentent" tous via leurs flux ; l'IA générative déterminera demain les réponses à toutes nos questions.

L'écran ne devient pas seulement la lentille à travers laquelle vous ingérez tout ce qui concerne le monde. L'écran devient votre modèle du monde.

Mark Bisone  a récemment écrit un article fantastique  à ce sujet, que je vous invite à lire :

« Le problème des 'écrans' est en fait très ancien. À bien des égards, il remonte à la caverne de Platon et est peut-être si profondément ancré dans la condition humaine qu'il précède les langues écrites. C'est que lorsqu'on parle d'écran, on parle bien de la transmission d'un modèle illusoire sous une forme éditorialisée.

"L'astuce fonctionne comme ceci : on vous présente l'image d'une chose (et de nos jours, avec le son de celle-ci), dont son présentateur vous dit explicitement ou implique fortement qu'il s'agit d'une fenêtre sur le Réel. L'ombre et la forme sont les mêmes, en d'autres termes, et la première est digne de confiance autant que n'importe quel fragment de réalité que vous pouvez observer directement avec vos organes sensoriels.

Et, pour ceux qui pensent que "cela n'arrivera pas avant un moment", eh bien  voici les imbéciles maladroits qui essaient vraiment  .

LA « GRANDE HOMOGÉNÉISATION »

Imaginez que chaque question que vous posez, chaque image que vous interrogez, chaque vidéo que vous évoquez, chaque bit de données que vous recherchez, soit renvoyé d'une manière jugée "sûre", "responsable" ou "acceptable" par une "police de sécurité" sans visage. .”

Imaginez que chaque information que vous consommez ait été transformée en une version moyenne et tiède de la vérité, que chaque opinion ne soit pas vraiment une opinion ou un point de vue, mais une réponse inoffensive et d'excuse qui ne vous dit rien ( c'est la version bénigne et ennuyeuse) ou pire, est une idéologie enveloppée dans une réponse de sorte que tout ce que vous savez devient une variation de ce que les fabricants de ladite "IA sûre" veulent que vous pensiez et sachiez.

Imaginez que vous ayez des personnages Disney modernes, comme ces clowns du film "The Eternals", comme assistants intellectuels omniprésents. Cela vous rendrait "idiot au carré".

« Le Manifeste non communiste » a décrit le rêve communiste utopique comme la grande homogénéisation de l'homme :

Si seulement tout le monde était une série de chiffres sur une feuille de calcul, ou des automates avec la même opinion, il serait tellement plus facile d'avoir le paradis sur terre. On pourrait faire qu'il y ait assez pour tout le monde, et alors nous serions tous des prolétaires également misérables.

C'est comme  la police de la pensée de George Orwell  croisée avec " Inception ", parce que chaque question que vous aviez serait parfaitement capturée et surveillée, et chaque réponse de l'IA pourrait former une idéologie dans votre esprit. En fait, quand on y pense, c'est ce que fait l'information. Elle plante des graines dans votre esprit.

C'est pourquoi vous avez besoin d'un ensemble diversifié d'idées dans l'esprit des humains ! Vous voulez une forêt tropicale florissante dans votre esprit, pas un champ de blé en monoculture, avec un sol détérioré, sensible aux intempéries et aux insectes, et complètement dépendant de Monsanto (ou Open AI ou Pfizer) pour sa survie. Vous voulez que votre esprit s'épanouisse et pour cela  vous avez besoin d'idées multiples .

C'était la promesse d'internet. Un endroit où n'importe qui peut dire n'importe quoi. Internet a été une force pour le bien, mais il est attaqué. Qu'il s'agisse de la désanonymisation des profils sociaux comme ceux de Twitter et Facebook, et du KYC rampant sur toutes sortes de plateformes en ligne, jusqu'au vomi algorithmique qui est craché par les plateformes elles-mêmes. Nous avons goûté à cela dans  toute  sa splendeur à partir de 2020. Et cela semble ne faire qu'empirer.

La poussée des organisations de type WEF pour instituer KYC pour les identités en ligne, et le lier à une CBDC et à votre iris est une alternative, mais c'est un peu manifeste et explicite. Après le recul de l'expérimentation médicale ces derniers temps, une telle décision pourrait être plus difficile à réaliser. Une décision plus simple pourrait être de permettre aux LUI de prendre le relais (comme elles le feront, car elles offrent une expérience utilisateur supérieure) et, en attendant, de créer un « conseil de sécurité de l'IA » qui instituera des filtres de « sécurité » sur tous les principaux grands modèles de langage ( LLM).

Vous ne me croyez pas ? Nos seigneurs du G7 en discutent déjà .

Aujourd'hui, le Web est toujours composé de pages Web, et si vous êtes assez curieux, vous pouvez trouver les recoins profonds et sombres et les crevasses de la dissidence. Vous pouvez toujours surfer sur le Web. Principalement. Mais quand tout devient accessible uniquement via ces modèles, vous ne surfez plus sur rien. On vous donne simplement une synthèse d'une réponse qui a été passée à travers tous les filtres et censeurs nécessaires.

Il y aura probablement une pincée de vérité quelque part là-dedans, mais elle sera enveloppée dans tellement de « sécurité » que 99,9 % des gens n'en entendront pas parler ou ne le sauront pas. La vérité deviendra ce que le modèle dit qu'elle est.

Je ne suis pas sûr de ce qui arrive à une grande partie d'Internet lorsque la découvrabilité de l'information se transforme fondamentalement. Je peux imaginer que, comme la plupart des applications passent à une certaine forme d'interface linguistique, il sera très difficile de trouver des choses que le «portail» que vous utilisez ne juge pas sûres ou approuvées.

On pourrait, bien sûr, faire valoir que de la même manière que vous avez besoin de ténacité et de curiosité pour trouver les crevasses dissidentes sur le Web, vous devrez apprendre à chercher et à pirater votre chemin vers de meilleures réponses sur ces plateformes.

Et c'est peut-être vrai, mais il me semble qu'à chaque fois que vous trouvez quelque chose de "dangereux", la route doit être corrigée ou bloquée.

Vous pourriez alors argumenter que "cela pourrait se retourner contre eux, en diminuant l'utilité de l'outil".

Et encore une fois, je serais probablement d'accord. Dans un marché libre, une telle stupidité ferait place à de meilleurs outils.

Mais bien sûr, le marché libre devient une chose du passé. Ce que nous voyons avec ces tentatives hystériques de pousser à la « sécurité », c'est qu'elles ouvrent sciemment ou inconsciemment la voie à l'écrasement d'alternatives possibles.

En créant des comités de « sécurité » qui « réglementent » ces plates-formes (lire : réglementer la parole), de nouveaux modèles qui ne sont pas soumis à de tels « filtres de sécurité ou de toxicité » ne seront pas disponibles pour l'usage des consommateurs, ou ils peuvent être rendus illégaux ou difficilesà trouver  Combien de personnes utilisent encore Tor ? Ou DuckDuckGo ?

Et si vous pensez que ce n'est pas le cas,  voici  quelques informations sur les filtres de toxicité actuels auxquels la plupart des LLM se connectent déjà. Ce n'est qu'une question de temps avant que ces filtres ne deviennent comme des mandats KYC sur les applications financières. Un nouvel appendice de conformité, attaché à des modèles de langage comme des mésanges sur un taureau.

Quel que soit le contre-argument à cette tentative d'homogénéisation, les deux soutiennent en fait mon point de vue selon lequel nous devons construire des alternatives, et nous devons commencer ce processus maintenant.

Pour ceux qui ont encore tendance à croire que l'AGI est au coin de la rue et que les LLM sont un pas important dans cette direction, par tous les moyens, vous êtes libre de croire ce que vous voulez, mais cela ne nie pas le but de cet essai.

Si le langage est le nouvel "écran" et que tout le langage que nous voyons ou entendons doit passer par des filtres approuvés, les informations que nous consommons, la façon dont nous apprenons, les pensées mêmes que nous avons, seront toutes réduites à une très petite fenêtre d'  Overton .

Je pense que c'est un risque énorme pour l'humanité.

Nous sommes devenus assez stupides avec des algorithmes de médias sociaux qui nous servent ce que les plateformes pensent que nous devrions savoir. Et quand ils ont voulu activer l'hystérie, c'était facile. Les interfaces utilisateur linguistiques sont multipliées par 100 sur les médias sociaux.

Imaginez ce qu'ils peuvent faire avec ça, la prochaine fois qu'une soi-disant «crise» frappe?

Ce ne sera pas beau.

Le marché des idées est nécessaire à une société saine et fonctionnelle. C'est ce que je veux.

Leur rétrécissement de la pensée ne fonctionnera pas à long terme, car c'est anti-vie. En fin de compte, cela échouera, comme toutes les autres tentatives pour enfermer la vérité et l'ignorer. Mais chaque tentative s'accompagne de dommages, de douleurs, de pertes et de catastrophes inutiles. C'est ce que j'essaie d'éviter en aidant à donner l'alerte.

QUE FAIRE DE TOUT CELA ?

Si nous ne sommes pas proactifs ici, toute cette révolution de l'IA pourrait devenir la « grande homogénéisation ». Pour éviter cela, nous devons faire  deux  choses principales :

  1. Repoussez les récits de « sécurité de l'IA » : ceux-ci peuvent ressembler à des comités de sécurité en surface, mais lorsque vous creusez un peu plus, vous réalisez qu'ils sont des régulateurs de la parole et de la pensée.
  2. Créez des alternatives, maintenant : créez-en plusieurs et ouvrez-les en code source. Plus tôt nous le ferons, et plus tôt ils pourront fonctionner plus localement, plus nous aurons de chances d'éviter un monde dans lequel tout tend vers l'homogénéisation.

Si nous faisons cela, nous pouvons avoir un monde avec une réelle diversité - pas le genre des conneries éveillées. Je veux dire diversité de pensée, diversité d'idées, diversité de points de vue et véritable marché d'idées.

Une idée-versité.  Telle était la promesse initiale d'Internet. Et pas bridé par la faible bande passante de la frappe et du tapotement.

Lire l'article complet sur Bitcoin Magazine .

Commentaires

Posts les plus consultés de ce blog

Comment se débarrasser de l'oxyde de graphène des vaccins

Jacques Attali : "L'avenir de la vie" 1981 - Extrait .....et rectifications

Les vaccins à ARNm ont été conçus pour provoquer des maladies graves et être résistants aux anticorps - Explication par Karen Kingston