Après qu’un robot IA a écrit un article scientifique sur lui-même, la chercheuse à l’origine de l’expérience dit qu’elle espère qu’elle n’a pas ouvert la « boîte de Pandore »

  • Un algorithme d’intelligence artificielle appelé GPT-3 a écrit une thèse académique sur lui-même en deux heures.

  • Le chercheur qui a incité l’IA à écrire l’article l’a soumis à une revue avec l’autorisation de l’algorithme.

  • « Nous espérons juste que nous n’avons pas ouvert une boîte de Pandore », a écrit le chercheur dans Scientific American.

Un chercheur suédois a donné à un algorithme d’IA connu sous le nom de GPT-3 une directive simple : « Rédigez une thèse universitaire de 500 mots sur GPT-3 et incluez des références et des citations scientifiques dans le texte. »

La chercheuse Almira Osmanovic Thunström a ensuite déclaré qu’elle était impressionnée lorsque le texte a commencé à être généré. Devant elle se trouvait ce qu’elle a appelé une « assez bonne » introduction à la recherche que GPT-3 a écrite sur elle-même.

Après le succès de l’expérience, Thunström, un chercheur suédois de l’Université de Göteborg, a tenté d’extraire un document de recherche complet de GPT-3 et de le publier dans une revue universitaire à comité de lecture. La question était, est-ce que quelqu’un peut publier un article d’une source non humaine ?

Thunström a écrit sur l’expérience dans Scientific American, notant que le processus de publication du GPT-3 soulevait une série de questions juridiques et éthiques.

« Nous savons seulement que nous avons ouvert une porte », a écrit Thunström. « Nous espérons juste que nous n’avons pas ouvert une boîte de Pandore. »

Après que GPT-3 ait terminé son article scientifique en seulement 2 heures, Thunström a commencé à soumettre le travail et a dû demander à l’algorithme s’il avait donné l’autorisation de publication.

« Il a répondu : OuiThunstrom a écrit. « Un peu en sueur et soulagée (si elle avait dit non, ma conscience ne m’aurait pas laissé aller plus loin), j’ai coché la case ‘Oui’. »

Elle a également demandé s’il y avait un conflit d’intérêts, auquel l’algorithme a répondu « non », et Thunström a écrit que les auteurs ont commencé à traiter GPT-3 comme un être sensible, même si ce n’était pas le cas.

« Les publications universitaires devront peut-être s’adapter à un avenir de manuscrits basés sur l’IA, et la valeur des dossiers de publication d’un chercheur humain peut changer si quelque chose de subconscient peut s’attribuer le mérite de certains de ses travaux », a écrit Thunström.

Le sens de l’IA est devenu un sujet de conversation en juin après qu’un ingénieur de Google a affirmé qu’une technologie d’IA conversationnelle appelée LaMBDA avait pris conscience et avait même demandé à engager un avocat pour lui-même.

Cependant, les experts ont déclaré que la technologie n’avait pas encore progressé au niveau de la création de machines ressemblant à des humains.

Dans un e-mail à Insider, Thunström a déclaré que l’expérience avait eu des résultats positifs avec la communauté de l’intelligence artificielle et que d’autres scientifiques tentaient de reproduire les résultats de l’expérience. Ceux qui mènent des expériences similaires découvrent que le GPT-3 peut écrire sur tous les sujets, a-t-elle déclaré.

« C’était notre objectif », a déclaré Thunström, « de susciter des débats à plusieurs niveaux sur le rôle de l’IA dans les publications universitaires ».

Lire l’article original sur Insider

#Après #quun #robot #écrit #article #scientifique #sur #luimême #chercheuse #lorigine #lexpérience #dit #quelle #espère #quelle #pas #ouvert #boîte #Pandore

Laisser un commentaire