You are currently viewing Les employés révèlent les dérives de l’intelligence artificielle que les géants de la tech tentent de cacher

Les employés révèlent les dérives de l’intelligence artificielle que les géants de la tech tentent de cacher

  • Temps de lecture :5 min de lecture

Au cœur des géants de la tech se cachent des secrets troublants. Les travailleurs de l’ombre révèlent les coulisses sombres de l’intelligence artificielle, mettant à jour les dérives éthiques soigneusement dissimulées. Plongeons dans l’univers opaque de la tech, là où l’éthique se confronte aux intérêts économiques.

Dans une mouvance qui n’a rien de surprenant pour les observateurs attentifs, des anciens salariés des géants de la tech lancent une alarme concernant les risques des intelligences artificielles. Une initiative marquant un appel à la sensibilisation des autorités et du public.

Voix d’anciens employés d’OpenAI et Google DeepMind

Mardi dernier, un groupe d’anciens employés d’OpenAI et de Google DeepMind a publié une lettre sur le site Right to Warn. Complétée par les signatures de personnalités marquantes comme Yoshua Bengio, Geoffrey Hinton, et Stuart Russell, cette lettre souhaite mettre en lumière les préoccupations sérieuses concernant les technologies d’intelligence artificielle.

Certains anciens salariés ont préféré rester anonymes, par crainte de représailles. Cette lettre survient peu de temps après que l’équipe chargée du contrôle des IA chez OpenAI ait quitté l’entreprise faute de moyens adéquats pour travailler efficacement.

Obstacles et accords de confidentialité

OpenAI fait face à des accusations sérieuses : museler ses anciens employés via des accords de confidentialité (NDA), limitant toute critique publique sur les risques liés aux technologies d’IA développées. Ces NDA créent un climat propice à l’opacité, empêchant la transparence nécessaire pour identifier et atténuer les risques.

Les risques liés aux technologies d’IA

Les anciens employés évoquent des risques précis :

  • Renforcement des inégalités existantes
  • Manipulation et désinformation
  • Perte de contrôle des systèmes d’IA autonomes, pouvant mener à des conséquences catastrophiques

Ils plaident pour une intervention accrue des scientifiques, des décideurs politiques et du public, afin d’offrir des orientations appropriées et éviter de tels scénarios.

La nécessité d’un contrôle gouvernemental

Les auteurs soulignent que les entreprises d’IA ont des incitations financières pour esquiver une véritable surveillance. Considérant les structures de gouvernance d’entreprise actuelles insuffisantes, ils expliquent qu’un contrôle gouvernemental efficace est indispensable pour garantir responsabilité et transparence dans ce secteur.

Réforme des accords de confidentialité et culture de la critique

Les signataires demandent aux entreprises d’IA de :

  • Renoncer aux accords de confidentialité empêchant la critique des risques d’IA
  • Mettre en place un processus anonymisé pour exprimer les préoccupations
  • Favoriser une culture de la critique ouverte
  • S’engager à ne pas réprimer les employés partageant des informations confidentielles si d’autres processus ont échoué

Cette démarche est soutenue par des voix influentes dans le domaine de l’IA, lui conférant une portée conséquente.

Un appel tardif mais indispensable

Ce n’est pas la première alerte dans le secteur. Timnit Gebru et Margaret Mitchell, autrefois licenciées par Google pour des raisons similaires, avaient déjà averti des dangers des grands modèles de langage. Margaret Mitchell, désormais chez Hugging Face, atteste de la difficulté de lancer l’alerte dans l’industrie de l’IA.

Un besoin urgent de réforme

Face à ces défis, les préoccupations actuelles mettent en lumière l’urgence d’une plus grande transparence, d’un meilleur contrôle et d’une meilleure protection pour les employés avertissant sur des risques potentiels. Les lois en vigueur doivent être révisées pour assurer un environnement de travail plus équitable et sécurisé.