Le créateur de ChatGPT interpelle les autorités devant le Congrès américain : « J’ai peur que nous causions des dommages significatifs à la société »

Pour la première fois, le patron de la société OpenIA, à l’origine de ChatGPT, a été invité à s’exprimer devant le Congrès américain. Alors que les élections approchent, Sam Altman a confirmé ce que beaucoup craignaient : l’intelligence artificielle pourrait y jouer un rôle qu’elle n’a pas à jouer.

Pourquoi est-ce important ?

À mesure que les recherches sur l'intelligence artificielle progressent, les craintes à son égard se font de plus en plus vives. Et pas seulement dans le chef des personnes extérieures au secteur. De plus en plus de pontes de la Big Tech commencent à s'inquiéter à leur tour.

Dans l’actu : Sam Altman devant le Congrès.

  • Ce mardi, le CEO d’OpenIA a été invité à répondre aux questions des sénateurs américains de la sous-commission sur la protection de la vie privée, la technologie et le droit. Le thème de la discussion : les potentielles dérives de l’intelligence artificielle.
  • Sam Altman a confirmé qu’il était temps que le politique se saisisse pleinement de la problématique, en la réglementant. Une intervention est même devenue « cruciale », selon ses termes.

Le détail : « J’ai peur que nous causions des dommages significatifs à la société »

  • Parmi les législateurs américains, nombreux sont ceux qui s’inquiètent des effets néfastes de l’intelligence artificielle, et notamment de l’influence qu’elle pourrait avoir sur l’élection présidentielle de l’an prochain.
    • « Il n’y a aucun moyen de remettre ce génie dans la bouteille. Au niveau mondial, elle explose », a notamment alerté devant Altman le sénateur démocrate Cory Booker.
    • En ce qui concerne les élections, les inquiétudes pèsent surtout sur la capacité de l’IA à générer de fausses informations de plus en plus difficiles à déceler, notamment via des images créées de toutes pièces et qui semblent pourtant plus vraies que nature.
  • « Je suis nerveux à ce sujet », a concédé Altman, ajoutant que l’utilisation de l’intelligence artificielle pour interférer avec l’intégrité des élections était un « domaine de préoccupation important ».
    • « L’une de mes plus grandes peurs, c’est que nous, cette industrie, cette technologie, causions des dommages significatifs à la société », a-t-il confié. « Si cette technologie va dans le mauvais sens, elle peut aller assez loin. »
  • Le patron d’OpenAI a ensuite indiqué être favorable à l’introduction d’une réglementation autour du sujet, proposant, entre autres, d’inviter les entreprises à faire savoir de façon très claire lorsqu’une image était générée par l’IA.
    • Altman a aussi indiqué qu’un système de licences pourrait – voire devrait – être mis en place par les autorités américaines afin de s’assurer que les sociétés actives dans l’IA travaillent dans le respect de certaines normes de sécurité.

Pas le premier aveu de Sam Altman

Le contexte : tout le monde est conscient qu’il faut agir, mais la question porte sur le comment.

  • Si les craintes envers l’IA ne sont pas neuves, elles ont pris un nouveau tournant depuis que ChatGPT a impressionné le grand public lors de son lancement, fin 2022. Depuis, tous les géants de la technologie ont intensifié leurs efforts en la matière.
  • En mars, dans une lettre ouverte, des patrons de la Big Tech et des professeurs d’université ont appelé à une pause dans le développement de l’IA, le temps de mettre en œuvre les mesures permettant de conserver une marge sécuritaire sur la technologie.
    • Son cosignataire le plus connu n’était autre qu’Elon Musk. Peu après, le deuxième homme le plus riche du monde avait eu des mots encore plus inquiétants à l’égard de l’IA. Évoquant une potentielle « destruction civilisationnelle« , il avait déclaré que certains « entraînaient l’IA à mentir » et que le gouvernement devait « débrancher la prise ».
    • Notons que cela n’empêche pas Musk de développer sa propre IA qui, elle, recherchera la « vérité maximale ». Son nom ? TruthGPT.
  • Altman lui-même avait répondu à la lettre. S’il avait dit être d’accord avec certains points, il lui avait reproché un manque de nuance.
    • “Je pense qu’il est vraiment important d’agir avec prudence et une rigueur croissante pour les questions de sécurité. Je ne pense pas que la lettre était la meilleure façon de l’aborder », avait-il réagi.
    • Plus tôt, le CEO d’OpenAI avait admis que l’IA lui faisait « un peu peur ».
  • Bill Gates, le cofondateur de Microsoft – qui soutient financièrement OpenAI -, avait quant à lui jugé la demande de pause malvenue.
    • « Je ne comprends pas vraiment qui, selon eux, pourrait s’arrêter, ni si tous les pays du monde seraient d’accord pour s’arrêter, ni pourquoi il faudrait s’arrêter », avait-il répondu. « Je ne pense pas que le fait de demander à un groupe particulier de faire une pause résoudra les défis. Il y a clairement des avantages énormes… ce qu’il faut faire, c’est identifier les zones délicates ».
Plus
Lire plus...