L’un des fondateurs de chatGPT quitte son poste de Google et regrette son invention: « C’est effrayant »

Un des fondateurs de l’intelligence artificielle (IA), comptant parmi les voix les plus éminentes du domaine, exprime aujourd’hui des inquiétudes face au développement (trop) rapide de l’IA, face à la course à l’IA que se livrent les Big Tech, et face aux risques pour l’humanité.

Pourquoi est-ce important ?

Pour de nombreux observateurs, l'avènement de l'IA, avec le lancement du bot ChatGPT, est un point de bascule. Comme la création d'internet, nos vies sont parties pour changer en profondeur. Mais comment vont-elles changer ; telle est aujourd'hui la question.

Dans l’actu : Geoffrey Hinton démissionne de Google, après plus de 10 ans au sein de l’entreprise.

  • Le chercheur a attendu de démissionner pour exprimer ses craintes face au développement rapide de l’IA et des risques qui y sont liés.

Les détails : les inquiétudes de Hinton face à l’IA.

  • La course a l’IA lui inspire des craintes, explique-t-il au New York Times. En résumé, la course que se livrent les groupes pour mettre au point l’IA la plus performante pourrait être dangereuse et les groupes pourraient ne pas respecter les balises de sécurité, comme c’était pourtant le cas avant le lancement de ChatGPT à la fin de l’année dernière.
    • Un développement rapide qui lui fait peur : « Regardez ce qu’il en était il y a cinq ans et ce qu’il en est aujourd’hui. Prenez la différence et propagez-la vers l’avant. C’est effrayant. »
    • Il serait en plus impossible de savoir si tel ou tel pays ou groupe travaille sur le développement d’une IA puissante, en secret. Cette course pousserait ainsi les gouvernements du monde à vouloir réguler le développement, mais il craint que la régulation soit impossible à mettre en place.
    • « Je ne pense pas que les spécialistes devraient accélérer le développement avant d’avoir compris s’ils peuvent la contrôler », souligne encore Hinton.

Quels riques ?

  • Concrètement, il craint ainsi une grande vague de désinformation, avec de fausses images, de faux textes et de fausses vidéos. Les internautes ne sauraient plus démêler le vrai du faux. Il craint aussi que l’IA ne supprime plus de métiers que ce que l’on imagine maintenant. Il a également peur du lancement de robots tueurs autonomes, à l’avenir.
    • « Il est difficile de voir comment on peut empêcher les mauvais acteurs de l’utiliser à des fins malveillantes », avertit-il.

« Plus intelligents que les êtres humains »

  • Le lancement de ChatGPT d’OpenAI et Bard de Google a été un point de bascule pour le chercheur. Ces modèles de langage utilisent beaucoup plus de données que les modèles précédents. En somme, il les trouve désormais « plus intelligents que les êtres humains » – chose qu’il ne pensait pas voir arriver avant « 30 ou 50 ans », il y a encore quelques mois.
    • Mais cette intelligence n’empêche pas les bots de faire des erreurs. Ils peuvent apprendre des « comportements inattendus » via les données qu’ils analysent. C’est problématique, car les sociétés laissent les bots exécuter leur propre code informatique. Ce comportement inattendu peut ainsi vite avoir des implications énormes. Hinton parle même de « risque pour l’humanité ».

Levée des boucliers dans le monde de l’IA

Le contexte : les voix se lèvent contre le développement rapide de l’IA.

  • Hinton n’est pas le seul à émettre des inquiétudes. Plus tôt cette année, plus de 1.000 personnalités, dont Elon Musk et Steve Wozniak, ont signé une lettre demandant à mettre en pause le développement des modèles d’IA plus performants que ce qu’ils sont aujourd’hui.
    • Un peu plus tard, des personnalités de l’Association for the Advancement of Artificial Intelligence, une société académique, ont aussi publié une lettre, mettant en garde contre les risques de l’IA. Eric Horvitz, chercheur en chef chez Microsoft (qui collabore étroitement avec OpenAI, développeur de ChatGPT), était par exemple un des signataires.
  • C’est ainsi une voix éminente du domaine de l’intelligence artificielle qui rejoint les rangs des critiques. Geoffrey Hinton porte le surnom de « parrain de l’IA ». En 1972, fraichement diplômé, il a commencé ses travaux sur les « réseaux neuraux » – des systèmes qui peuvent apprendre des facultés en étudiant des données, comme le machine learning.
    • En 2012, lui et deux de ses étudiants ont sorti un tel système capable de reconnaître le contenu présent sur des images. Google a alors racheté la boîte pour 44 millions de dollars, rappelle le NYT.
    • Le chercheur britannique de 75 ans, professeur à Toronto, a également reçu le sacre ultime du monde de l’informatique, le prix Turing. Il l’a reçu avec deux autres personnes en 2018, pour les travaux sur ces réseaux neuraux.
Plus
Lire plus...