La technologie de géolocalisation la plus précise au monde et une alternative au GPS dévoilées par une entreprise technologique secrète

Par Brian Shilhavy,
Actualités sur l'impact de la santé 2 mai 2026
Hier, Jemima McEvoy, dans le magazine technologique The Information , a publié un article exclusif sur une société technologique « secrète » nommée ZaiNar, qui travaille depuis neuf ans au développement d'une technologie de suivi supérieure capable de localiser les personnes même à l'intérieur des bâtiments, chose que la technologie de suivi GPS actuelle par satellite ne permet pas.
L'entreprise sort désormais de l'ombre pour rechercher des contacts afin d'utiliser sa technologie, car elle est maintenant valorisée à environ 1 milliard de dollars.
Daniel Jacker, PDG et cofondateur de ZaiNar, a invité McEvoy à assister à la toute première démonstration publique de leur technologie, qu'ils affirment être « la technologie de suivi de localisation la plus précise au monde, capable de localiser un objet à quelques centimètres près, à l'intérieur comme à l'extérieur, depuis une grande distance ».
Dans le reste de cet article, je vais présenter cette technologie, ainsi que d'autres technologies récentes issues de la frénésie des dépenses en IA, afin d'illustrer les VRAIS dangers de cette technologie émergente, par opposition au battage médiatique autour de l'IA qui a tendance à faire les gros titres et minimise donc les dangers réels que cette technologie représente pour nous tous.
Je vous dévoile tout de suite la conclusion de cet article : nous ne sommes PAS impuissants face à cette nouvelle technologie. Les solutions restent les mêmes et sont assez simples : il suffit de se déconnecter et d’arrêter d’utiliser leurs produits et services.
Plusieurs générations ont grandi avec cette technologie et croient, à tort, qu'elle est indispensable à leur vie. Elles n'ont aucun souvenir du passé, pourtant récent, qu'ont connu les générations précédentes, où l'on ne possédait même pas de téléphones portables et où l'accès à Internet était inexistant pendant la majeure partie de notre enfance.
Il n’est donc pas surprenant que de nouveaux mouvements prennent de l’ampleur parmi les jeunes générations autour du concept de « déconnexion » du monde numérique et artificiel, et de passage à une vie plus réelle, dans le monde RÉEL.
Le discret ZaiNar sort de l'ombre et vise 5 milliards de dollars de transactions pour une alternative au GPS.
D'après The Information (abonnement requis).
ZaiNar affirme avoir mis au point une technologie de suivi innovante et ultra-précise qui permettra aux robots d'apprendre à voir et contribuera à l'avènement de l'intelligence artificielle physique. Cette technologie risque également d'inquiéter tous ceux qui se soucient de la protection de leurs données personnelles.
Extraits :
Il y a quelques semaines, Daniel Jacker, PDG et cofondateur de ZaiNar, m'a fait une proposition alléchante : assister à la toute première démonstration publique de la technologie que sa start-up avait développée avec acharnement pendant neuf ans dans l'anonymat. Il la décrivait comme la technologie de géolocalisation la plus précise au monde, capable de localiser un objet à quelques centimètres près, en intérieur comme en extérieur, même à grande distance.
Certes, Google Maps et la fonction Localiser d'Apple sont plutôt performantes, mais même dans les meilleurs cas, elles ne peuvent généralement déterminer la position d'une personne qu'à quelques dizaines de mètres près et parfois ne parviennent pas du tout à localiser un appareil s'il se trouve à l'intérieur ou sous terre.
Je savais que Jacker avait réuni un groupe d'investisseurs importants, dont Steve Jurvetson et Jerry Yang de Yahoo, et avait révélé l'existence de la start-up en février en annonçant qu'ils avaient valorisé l'entreprise à 1 milliard de dollars.
Je ne pouvais absolument pas refuser. Jacker, 37 ans, et moi nous sommes donc rencontrés dans un entrepôt de 1 860 mètres carrés à Belmont, en Californie, précédemment occupé par GoPro.
Lorsque nous sommes entrés dans une pièce du rez-de-chaussée, cloisonnée par d'épais murs et encombrée d'étagères métalliques, Jacker a tendu un smartphone à l'un de ses ingénieurs, qu'il avait recruté pour l'aider lors de la démonstration. L'appareil était connecté à un réseau 5G grâce à quatre antennes fixées aux murs.
Il aurait dû être très difficile de localiser précisément l'objet sans ajouter d'équipement spécialisé à l'appareil ou à la pièce ; de plus, le toit métallique intérieur de l'entrepôt aurait rendu le suivi GPS traditionnel complexe. Pourtant, sur l'écran d'un ordinateur portable, le logiciel ZaiNar l'affichait comme un minuscule point bleu sur un plan de l'entrepôt.
Tandis que l'ingénieur se déplaçait avec l'appareil, j'attendais que le point bleu disparaisse, ou du moins qu'il suive ses mouvements. Il ne disparut jamais , même lorsqu'il s'engagea dans un couloir étroit entre deux chambres anéchoïques – des pièces qui utilisent des carreaux et de la mousse spéciaux pour bloquer le son, les connexions satellites et l'internet sans fil.
Jacker a déclaré que sa technologie peut suivre n'importe quel téléphone, voiture, drone ou robot dans presque n'importe quel environnement, à condition qu'il se trouve à environ un mile d'une station de base 5G, d'une antenne ou d'un autre récepteur de réseau.
La seule exception : lui et ses quatre cofondateurs n'ont pas encore trouvé comment le faire fonctionner sous l'eau.
Il a présenté la technologie de son entreprise en termes cinématographiques :
« Nous savons où tout se trouve, partout, à la fois . »
Jacker considère la technologie de la start-up comme une alternative au suivi GPS. Tout appareil capable de se connecter à Internet sans fil, comme le Wi-Fi et la 5G, émet des signaux radio pour rester connecté au réseau.
D'après Jacker, le logiciel de Zainar utilise ces signaux pour localiser un appareil à moins de 10 cm . Il fonctionne en intérieur via les réseaux Wi-Fi privés et la 5G, et en extérieur via les réseaux 5G des opérateurs mobiles.
La technologie de ZaiNar utilise un signal spécifique transmis par ondes radio, appelé signal de référence de sondage, élément fondamental des technologies sans fil. Un appareil peut émettre ce signal jusqu'à 500 fois par seconde, et cette fréquence de transmission élevée permet de suivre un appareil en mouvement, comme un drone ou un robot.
Apple a récemment ajouté une fonctionnalité permettant aux utilisateurs de limiter la précision des données de géolocalisation partagées avec les opérateurs de téléphonie mobile. Cependant, les fabricants d'appareils comme Apple et Google ne peuvent empêcher leurs appareils d'émettre les signaux radio analysés par ZaiNar, a déclaré Jacker. Cela signifie que sa technologie pourrait les surveiller en permanence dès qu'ils sont connectés à un réseau .
Dans l'entrepôt de ZaiNar à Belmont, je n'ai pas pu m'empêcher de ressentir un léger malaise en regardant le point bleu se déplacer sur l'écran de l'ordinateur portable.
Certes, la technologie était impressionnante, mais ce petit point représentait une personne. Or, nous vivons déjà dans un monde où notre vie privée numérique est constamment mise à mal depuis des décennies. La technologie de ZaiNar pourrait l'éroder davantage, en favorisant des formes de marketing plus intrusives, la surveillance gouvernementale et d'autres abus potentiels.
La technologie de ZaiNar, grâce à sa capacité à suivre avec précision les déplacements d'un appareil via les signaux qu'il émet pour rester connecté, facilite grandement le suivi sans autorisation . (Un utilisateur ne peut pas désactiver ce type de géolocalisation comme il le ferait pour d'autres services de localisation sur un smartphone, même s'il peut échapper à la détection en activant le mode avion.)
ZaiNar considère cela comme un argument de vente majeur pour l'entreprise, et pendant que je rédigeais cet article, un porte-parole de la start-up a décrit le suivi d'objets comme les téléphones et les voitures « sans la coopération de ces appareils » comme une partie importante du « rempart de propriété intellectuelle clé » de l'entreprise.
Jacker a déclaré qu'il fixait des limites strictes quant à l'utilisation de sa technologie.
L'entreprise ne conclut pas d'accords en Russie et en Chine et ne s'intègre pas aux entreprises chinoises telles que Huawei ou ZTE, toutes deux considérées par les États-Unis comme des menaces pour la sécurité nationale en raison de leurs liens avec l'armée chinoise.
Mais qu'en est-il d'une organisation comme le service américain de l'immigration et des douanes (ICE) ? Jacker a déclaré qu'il n'autoriserait jamais cette agence fédérale à utiliser, par exemple, le système de suivi de ZaiNar pour des opérations de contrôle d'immigration.
« C’est franchir une ligne rouge pour nous », a déclaré Jacker, ajoutant que ce serait « trop proche de l’Holocauste » pour être envisagé.
Mais il envisageait la possibilité que l'ICE utilise la technologie ZaiNar pour d'autres opérations.
« Mais la sécurité des frontières ? Parfaitement bien », a-t-il déclaré.
Remarquez comment cet ancien étudiant de Stanford, âgé de 37 ans, pense être le seul à avoir le pouvoir de décider qui et dans quelles circonstances peut utiliser cette technologie !
Mais tout ce système repose sur deux technologies sans fil : la 5G via les téléphones portables et les connexions Wi-Fi. Si vous n’utilisez ni l’une ni l’autre, vous ne pouvez pas être suivi, c’est aussi simple que cela. Je n’utilise plus le Wi-Fi chez moi depuis des années, me connectant uniquement à Internet par câble réseau.
Et je n'utilise pas de téléphone portable pour parler aux gens, ce qui en contrarie beaucoup car ils ne veulent pas consacrer du temps à utiliser des méthodes de communication plus sécurisées.
L’« appareil » qui communique constamment avec « le réseau » et auquel la plupart des gens ne pensent même pas, c’est leur véhicule. (Extrait de l’article)
Lors d'un premier test, ils ont installé une antenne 4G sur un mur en béton bordant Campus Drive, la route qui traverse le campus. À chaque passage de voiture, ils ont constaté qu'ils pouvaient la détecter à travers le mur grâce au signal radio émis par le capteur de pression des pneus .
Assurez-vous que le véhicule que vous conduisez n'est PAS connecté à Internet. De nombreuses voitures modernes, notamment les Tesla, ne proposent probablement même pas cette option, car elles cesseraient alors de fonctionner complètement.
Voici un autre rapport exclusif publié cette semaine par The Information, traitant du suivi sur le lieu de travail :
Exclusif : Zuckerberg déclare aux employés de Meta : « Nous vous surveillons parce que vous êtes vraiment très intelligents. »
Le PDG de Meta Platforms explique à ses employés que l'utilisation de leur activité informatique pour entraîner des modèles d'IA pourrait lui donner un avantage concurrentiel.
Extraits :
Le PDG de Meta Platforms, Mark Zuckerberg, a déclaré que l'utilisation de l'activité informatique des employés pour entraîner ses modèles d'IA pourrait donner à l'entreprise un avantage concurrentiel, arguant que son personnel possède une intelligence moyenne supérieure à celle des sous-traitants généralement utilisés par les entreprises d'étiquetage de données.
Lors d'une réunion à l'échelle de l'entreprise jeudi, dont l'enregistrement a été consulté par The Information, Zuckerberg a décrit l'activité des employés internes comme une source précieuse de données de formation, susceptible de surpasser les approches standard du secteur qui reposent fortement sur des sous-traitants.
« Nous sommes dans une phase où les modèles d'IA apprennent essentiellement en observant des personnes très intelligentes faire des choses », a-t-il déclaré, ajoutant que permettre aux systèmes d'« observer des personnes très intelligentes faire ces choses est très important ».
Zuckerberg répondait à une question concernant une nouvelle politique que Meta avait annoncée à ses employés la semaine dernière et qui a suscité des inquiétudes chez certains d'entre eux. Selon un article précédent de Reuters, Meta a déclaré qu'elle installerait un nouvel outil de surveillance, la Model Capability Initiative, afin de suivre les frappes au clavier et les mouvements de la souris pour faciliter l'entraînement de ses modèles d'IA.
Le mythe d'Anthropic : la plus grande menace de cybersécurité jamais enregistrée pour le secteur bancaire ?
Si vous ne suivez pas l'industrie technologique d'aussi près que moi, vous avez peut-être manqué ce qui était probablement la plus grande nouvelle du secteur en avril : le programme d'intelligence artificielle Mythos d'Anthropic, développé en secret, mais qui a maintenant fuité dans le public.
Ce programme d'IA n'est toujours pas accessible au public, mais un aperçu a été envoyé aux principales banques et sociétés de Wall Street, et il a provoqué une véritable panique parmi elles.
Mythos utilise la puissance de calcul rapide de l'IA pour tester l'infrastructure technologique d'une entreprise afin de trouver les failles exploitables par les pirates informatiques.
L'existence même d'un tel programme représente un risque pour NOUS TOUS, car entre les mains de pirates informatiques et de criminels en cybersécurité, les dommages qu'il pourrait causer sont sans précédent.
Jamie Dimon, le PDG de l'une des plus grandes banques mondiales basée aux États-Unis, a été l'un des premiers à Wall Street à exprimer ses inquiétudes.
Pendant des années, le risque qui préoccupait le plus Jamie Dimon était d'ordre géopolitique. Sa réponse a évolué.
Quand on interroge Jamie Dimon sur le plus grand risque qu'il perçoit pour l'économie mondiale, sa réponse est, depuis des années, « la géopolitique ».
Et à juste titre. Ces dernières années, la Russie a envahi l'Ukraine ; un conflit majeur a éclaté entre Israël et la Palestine ; et les États-Unis et Israël ont ensuite lancé des attaques contre l'Iran, dont les répercussions se sont propagées à travers le Moyen-Orient.
Ajoutez à cela les tensions internationales croissantes dues au régime tarifaire du président Trump, la menace d'invasion du Groenland et l'escalade des tensions commerciales avec la Chine, et le drame sur la scène mondiale semble atteindre son paroxysme.
Mais même ces faits s'accompagnent d'une nouvelle menace que le PDG de JPMorgan entrevoit à l'horizon : la cybersécurité.
Le mois dernier, Beatrice Nolan de Fortune a révélé en exclusivité que la société d'IA Anthropic développait, et avait commencé à tester avec des clients ayant un accès anticipé, un nouveau modèle d'IA plus performant que tous ceux qu'elle avait publiés auparavant, suite à une fuite de données qui avait révélé l'existence du modèle.
Un brouillon d'article de blog, disponible dans une base de données non sécurisée et accessible au public avant la publication de l'article de Fortune, indiquait que le nouveau modèle s'appelle Claude Mythos et que l'entreprise estime qu'il présente des risques de cybersécurité sans précédent.
Cette semaine, Dimon a été interrogé sur ses principales préoccupations lors d'une intervention en direct dans un podcast à Oslo, à l'occasion de la conférence Norges Bank Investment Management.
« Cyber », a-t-il immédiatement répondu. Il a expliqué :
« Les cybercriminels peuvent utiliser la cybersécurité et ils vont devenir plus forts et plus puissants pour trouver les failles de sécurité. Cela a déjà été écrit . »
Voici un communiqué de presse de mi-avril publiant les premières réactions de Wall Street lorsque cette nouvelle concernant Mythos a été révélée.
Premières réactions des PDG de Wall Street au roman Mythos d'Anthropic
Alors que les dirigeants du secteur bancaire vantent le potentiel de l'IA, ils avertissent que sa puissance crée également de nouvelles vulnérabilités complexes.
Extraits :
Les banques figurent parmi les plus fervents adeptes de l'IA, mais aussi parmi les plus exposées aux menaces croissantes que cette technologie fait peser sur la cybersécurité.
Cette vulnérabilité est apparue plus clairement au début du mois avec la publication de Mythos Preview d'Anthropic, un modèle d'IA très avancé qui a suscité l'inquiétude à Wall Street.
Lors des conférences téléphoniques sur les résultats, Jamie Dimon, PDG de JPMorgan Chase, et David Solomon, de Goldman Sachs, ont déclaré tester Mythos afin de mieux comprendre les nouveaux risques liés aux progrès rapides de l'IA.
« L’IA a empiré les choses, elle les a rendues plus difficiles », a déclaré Dimon aux analystes aujourd’hui (14 avril).
« Tout en cherchant à tirer profit de l'IA, nous sommes également très conscients des risques. »
Ces risques sont au cœur de Mythos, qu'Anthropic juge trop dangereux pour être rendu public en raison de sa capacité à exploiter les vulnérabilités de logiciels critiques. L'entreprise a donc invité un consortium de grandes entreprises, dont JPMorgan, à tester le modèle en interne afin de renforcer leurs défenses en matière de cybersécurité.
Ce projet pilote, baptisé Project Glasswing, tire son nom des papillons à ailes de verre, qui utilisent des ailes transparentes pour se dissimuler à la vue de tous – une métaphore qui, selon Anthropic, reflète la manière dont les failles cybernétiques cachées peuvent échapper à la détection.
Cette initiative, qui inclut d'autres banques de Wall Street ainsi qu'Apple, Google et Nvidia, sera financée par 100 millions de dollars de crédits d'utilisation de modèles d'Anthropic.
La diffusion de modèles avancés comme Mythos a créé des « vulnérabilités supplémentaires » au-delà du secteur bancaire, a déclaré Dimon.
« Les banques, bien sûr, sont liées aux marchés boursiers et à toutes ces autres choses qui créent d'autres niveaux de risques. C'est complexe. »
Suite à la publication du modèle Mythos, le secrétaire au Trésor américain Scott Bessent et le président de la Réserve fédérale Jerome Powell ont réuni la semaine dernière à Washington, D.C., les principaux dirigeants de Wall Street pour discuter des nouvelles menaces que représente ce modèle.
Bien que Dimon n'ait apparemment pas pu y assister, ses pairs, dont Brian Moynihan de Bank of America, Jane Fraser de Citigroup, Ted Pick de Morgan Stanley et Charlie Scharf de Wells Fargo, ont participé à la réunion.
Des représentants de banques centrales étrangères, dont la Banque du Canada et la Banque d'Angleterre, organisent des réunions d'information similaires avec les principaux dirigeants financiers.
Voici l'État de surveillance : Altman déclare qu'OpenAI est « profondément désolé » de ne pas avoir signalé les messages publiés sur ChatGPT par le tireur scolaire canadien.
« Je regrette profondément que nous n'ayons pas alerté les forces de l'ordre concernant le compte qui a été banni en juin », a déclaré Altman.
Le PDG du secteur technologique a déclaré que son entreprise s'efforçait de renforcer ses partenariats avec les autorités locales « afin de contribuer à ce qu'un tel incident ne se reproduise plus jamais ».
OpenAI et ChatGPT annoncent à tous que vous êtes désormais sous surveillance et que toute utilisation de ChatGPT sera bientôt transmise aux forces de l'ordre locales.
Altman déclare qu'OpenAI est « profondément désolée » de ne pas avoir signalé les messages publiés sur ChatGPT par le tireur scolaire canadien.
Extraits :
Le PDG d'OpenAI, Sam Altman, a présenté ses excuses à la ville canadienne de Tumbler Ridge pour ne pas avoir signalé sur sa plateforme ChatGPT les messages controversés envoyés par l'auteur présumé de la fusillade qui a tué huit personnes et en a blessé plus de 25 autres dans cette petite ville de montagne plus tôt cette année.
« Je tiens à exprimer mes plus sincères condoléances à toute la communauté », a déclaré Altman dans la lettre, qui a été partagée sur les réseaux sociaux par le premier ministre de la Colombie-Britannique, David Eby, vendredi.
« Personne ne devrait jamais avoir à endurer une telle tragédie », a écrit le PDG de la société technologique dans sa lettre. « Je ne peux rien imaginer de pire au monde que de perdre un enfant . »
Il a ajouté : « Mes pensées vont aux victimes, à leurs familles, à tous les membres de la communauté et à la province de Colombie-Britannique . »
La suspecte, Jesse Van Rootselaar, âgée de 18 ans, a été retrouvée morte sur les lieux, apparemment des suites d'une blessure par balle auto-infligée. Selon les forces de l'ordre, Van Rootselaar avait tué sa mère et son jeune frère avant d'abattre six personnes dans un lycée voisin.
Altman a indiqué que le compte ChatGPT du tireur présumé avait été suspendu en juin dernier, environ sept mois avant l'incident, en raison de ces messages. OpenAI, cependant, n'a pas signalé le compte à la police.
« Je regrette profondément que nous n'ayons pas signalé aux forces de l'ordre le compte qui a été banni en juin », a déclaré Altman. « Je sais que les mots ne suffisent jamais, mais je crois qu'il est nécessaire de présenter des excuses pour reconnaître le préjudice et la perte irréversible subis par votre communauté . »
Le PDG du secteur technologique a déclaré que son entreprise s'efforçait de renforcer ses partenariats avec les autorités locales « afin de contribuer à ce qu'un tel incident ne se reproduise plus jamais ».
Google signe un accord classifié sur l'IA avec le Pentagone malgré l'opposition de ses employés
Encore une exclusivité de The Information ! Si vous souhaitez accéder à des reportages uniques dans le domaine de la technologie, souvent absents des médias traditionnels, un abonnement à The Information vaut vraiment le coup !
Extraits :
Selon une source proche du dossier, Google et le département de la Défense ont signé un accord autorisant le Pentagone à utiliser les modèles d'IA de Google pour des travaux classifiés.
L'accord autorise le Pentagone à utiliser l'IA de Google à « toute fin gouvernementale légitime », selon cette source, reprenant ainsi une formulation qui a suscité la controverse lors d'autres discussions entre le Pentagone et des entreprises spécialisées dans l'IA.
La signature de cet accord intervient alors que plus de 600 employés de Google ont remis lundi une lettre au PDG de Google, Sundar Pichai, lui demandant de rejeter l'accord, arguant que refuser les travaux classifiés est le seul moyen de garantir que l'IA de Google ne soit pas utilisée à mauvais escient.
La signature de cet accord contraste fortement avec la position de Google il y a huit ans, lorsqu'elle s'était retirée du contrat Project Maven du département de la Défense américain, portant sur l'intelligence artificielle dans le ciblage des drones, après que des milliers d'employés de Google eurent signé une lettre d'opposition.
Google a déjà conclu un accord, signé en novembre dernier, autorisant le Pentagone à déployer son IA pour des cas d'utilisation non classifiés.
Google rejoint ainsi xAI d'Elon Musk et OpenAI parmi les entreprises ayant conclu des accords avec le Pentagone pour l'utilisation de l'IA sur des systèmes classifiés. Les conditions de l'accord de Google semblent plus souples envers le Pentagone que celles acceptées par OpenAI en février.
Et bien sûr, je ne peux pas publier un article sur les actualités du monde de la technologie sans mentionner quelques exemples récents (parmi les centaines) d'échecs de l'IA, révélant ainsi le battage médiatique autour de l'IA qui ne correspond pas à la réalité, tout en détournant l'attention des VRAIS dangers de l'IA.
Un autre document judiciaire « halluciné » met en lumière la différence entre la Silicon Valley et le reste du monde.
D'après CNN :
Extraits :
Nous venons peut-être d'assister à l'exemple le plus flagrant de négligence professionnelle à ce jour, et c'est un exemple important – non seulement parce qu'il est objectivement drôle, mais aussi parce qu'il met en lumière une nuance peu abordée dans le fonctionnement (ou les dysfonctionnements) de l'IA générative dans différents secteurs.
Soyez patient.
Samedi, un avocat de renom travaillant dans l'un des cabinets les plus prestigieux de la planète a présenté ses excuses les plus abondantes dans une lettre adressée à un juge après avoir déposé un document judiciaire truffé d'erreurs, notamment des citations fabriquées de toutes pièces, générées par une IA.
« Nous regrettons profondément ce qui s'est passé . »
Andrew Dietderich, codirecteur du département restructuration de Sullivan & Cromwell, a écrit dans la lettre, qui comprenait une liste de trois pages identifiant et corrigeant chacune des plus de 40 erreurs. (Comble de l'ironie : Dietderich a déclaré avoir appris l'existence de ces problèmes seulement après qu'ils aient été relevés par l'avocat de la partie adverse, le cabinet Boies Schiller Flexner.)
Dans sa lettre, Dietderich a attribué ces erreurs à des « hallucinations » dans lesquelles les outils d’IA « fabriquent des citations de jurisprudence, citent mal les autorités ou génèrent des sources juridiques inexistantes ».
Il a également déclaré que, bien que l'entreprise dispose de mesures de protection concernant l'IA pour éviter « précisément ce genre de situation », ces politiques n'ont pas été respectées lors de la préparation de ce document en particulier.
Ce n'était certainement pas le premier (et probablement pas le dernier) exemple d'avocats de renom confrontés aux dangers de l'intelligence artificielle. Ce genre de situation se produit étonnamment souvent , même si on la voit rarement chez des cabinets comme Sullivan & Cromwell, une firme prestigieuse de Wall Street dont les associés facturent environ 2 000 dollars de l'heure pour les dossiers de faillite.
Le fabricant de dashcams Motive vante l'IA mais dépend des humains.
D'après les informations :
L'entreprise vend des caméras embarquées aux sociétés de transport routier pour surveiller leurs conducteurs, mais elle emploie 400 travailleurs pakistanais pour vérifier les résultats de son intelligence artificielle.
Extraits :
L’été dernier, un responsable de la start-up Motive Technologies a envoyé un message urgent sur Slack à 400 employés basés au Pakistan. « NOUS AVONS UN PROBLÈME », disait le message en lettres majuscules.
Motive commercialise des caméras embarquées dotées d'intelligence artificielle permettant aux entreprises de transport routier de surveiller leurs conducteurs et de recevoir des alertes en cas d'accidents ou d'autres problèmes de sécurité. En août, ces caméras ont enregistré plusieurs collisions, mais les clients n'ont jamais reçu les alertes.
Le système d'IA avait détecté les pannes et les avait signalées aux quelque 400 employés pakistanais chargés par l'entreprise de vérifier les résultats de l'IA. Mais ces employés n'ont pas repéré les pannes dans le flux vidéo qu'ils étaient censés examiner.
Lorsque Motive a appris ce qui s'était passé, l'entreprise a creusé plus profondément et a découvert d'autres problèmes.
« Je tiens à partager en toute transparence : l’ampleur du problème est considérable », a déclaré un responsable à ses employés dans un message Slack consulté par The Information.
« Nous avons analysé les données de deux jours ciblés et avons constaté des problèmes plus importants. Beaucoup d'erreurs manifestes . »
Plus d'actualités sur notre chaîne Telegram cette semaine.
Une attaque américaine contre l'Iran pourrait être imminente.
Interview de Seyed M. Marandi par Glenn Diesen, enregistrée hier.
« S’ils assassinent davantage de dirigeants iraniens, l’Iran éliminera les dirigeants des États arabes du Golfe . »
La cour d'appel bloque une règle de la FDA autorisant les femmes à obtenir des médicaments abortifs par courrier.
Bobby Kennedy Jr., qui défend le droit des femmes à interrompre leur grossesse jusqu'au terme du neuvième mois, a refusé de demander à la FDA d'interdire la vente de pilules abortives par correspondance, obligeant ainsi la Louisiane à porter l'affaire devant les tribunaux.
D'après CNN :
Extraits :
Une cour d'appel fédérale a temporairement rétabli l'obligation, à l'échelle nationale, d'obtenir les pilules abortives en personne, ce qui compromet l'accès à cette méthode d'avortement qui n'a fait que se répandre davantage depuis que la Cour suprême des États-Unis a annulé l'arrêt Roe v. Wade.
La décision rendue vendredi par la Cour d'appel du 5e circuit des États-Unis constitue une victoire majeure dans la guerre que mène le mouvement anti-avortement contre l'avortement médicamenteux, qui représente désormais environ les deux tiers de tous les avortements aux États-Unis.
Cette décision fait suite à une action en justice intentée l'an dernier par la Louisiane contre la Food and Drug Administration américaine, après que l'administration du président Donald Trump a refusé de donner suite aux appels à rétablir l'obligation de délivrance en personne des pilules abortives par le biais du processus réglementaire.
Faisant référence aux interdictions d'avortement en Louisiane, ils ont écrit que la réglementation fédérale actuelle crée « un moyen efficace pour un prescripteur hors de l'État de mettre le médicament entre les mains des Louisianais au mépris de la loi de la Louisiane ».
Le fabricant de mifépristone, Danco Laboratories, a demandé à la Cour d'appel du 5e circuit de suspendre sa décision pendant sept jours afin de pouvoir faire appel.
Ce que les médias ne vous diront pas sur le roi Charles
Publié lors de son couronnement en 2023 par Really Graceful .
Quel a été le résultat de la visite de Charles aux États-Unis ?

Il a convaincu Trump de supprimer les droits de douane sur le whisky importé du Royaume-Uni aux États-Unis.
Trump supprime les droits de douane sur le whisky écossais après la visite du roi Charles
https://etouffoir.blogspot.com/2024/11/careless-whisper-un-outil-de.html

Commentaires
Enregistrer un commentaire