retour
Lyon, le 19/02/2023
Futurologie
En juin 2006,
je publiais sur ce site
(en toute immodestie)
une nouvelle de SF intitulée
Le propre de l'homme.
J'évalue le nombre de personnes
l'ayant vraiment lue
à environ 5.
Merci à elles.
Il y était question
du dialogue fictif
d'une chercheuse avec
une intelligence artificielle.
Aujourd'hui, en février 2023,
donc 17 ans après,
le temps me paraît venu
de dresser un bilan
des quelques prédictions
que j'avais formulées.
Je précise que l'année 2006
ne se situe pas au coeur
de ce que les anglophones appellent
l'AI winter,
pédiode de désintérêt relatif
pour ce champ de recherche.
Mais nous étions encore
très loin de l'explosion
que nous vivons aujourd'hui.
Passons donc en revue
les divers aspects
évoqués dans ma nouvelle.
Oui ou non avais-je vu juste ?
La nouvelle se situe en 2059,
mais en 2023,
en sommes-nous déjà là ?
Régulation supranationale
Non
J'évoquais l'existence
d'un Comité de Cyber Ethique,
instance internationale fictive
censée encadrer
les applications de l'IA.
A ce jour,
il n'existe pas d'équivalent
de la Convention de Genève,
cependant on voit apparaitre
des initiatives visant à établir
des normes éthiques
pour le développement
et l'utilisation de l'IA.
On peut par exemple citer
une charte éthique
européenne,
les principes directeurs de l'OCDE,
et l'Algorithmic Accountability
Act
aux États-Unis.
Mais pour l'instant,
le moins qu'on puisse dire
est que même si certaines entreprises
comme OpenAI
aiment à montrer qu'elles se soucient
des question éthiques,
on est tout de même dans une période
où c'est un peu le Far West.
ChatGPT a été balancée
dans la nature,
a été utilisée par des millions de personnes
sans qu'aucune instance de régulation
n'ait eu son mot à dire.
Droit assisté par ordinateur
Non
Je décrivais une justice
assistée par ordinateur,
voire même complètement automatisée.
Nous n'en sommes pas encore là.
Mais on peut évoquer par exemple
DoNotPay
:
"Un agent conversationnel [...]
devrait conseiller deux personnes
contestant des contraventions
pour excès de vitesse devant un tribunal.
Les deux défendeurs porteront
un casque sans fil
qui transmettra
ce que dit le juge au chatbot."
Ca devrait se passer début 2023.
Architecture matérielle
Non
J'avais imaginé que
les architectures matérielles
évolueraient nécessairement
vers un parallélisme massif.
Certaines architectures "neuromorphiques"
sont à l'étude, mais à ma connaissance,
elles n'ont pas encore connu
une réelle percée.
C'est encore un peu tôt.
En témoigne par ailleurs
la consommation électrique
d'un cerveau humain,
de l'ordre de 20 W,
très inférieure
aux besoins des systèmes
avancés actuels tels que GPT-3.
Boucle de censure
Oui
Dans ma nouvelle,
l'IA s'autocensure,
et ceci avec un objectif de sécurité
pour les humains interagissant avec elle.
C'était objectivement bien vu.
En effet,
OpenAI n'a pas ménagé ses efforts
pour que ChatGPT ne s'exprime pas
de manière débridée.
Ces barrières peuvent être contournées,
mais on peut lui reprocher
de verser dans un politiquement correct
parfois excessif.
Conscience artificielle
Non
Nous n'en sommes pas là aujourd'hui.
Mais si la boucle d'autocensure évoquée
précédemment était désactivée,
je pense que beaucoup pourraient déjà
faire illusion.
Mais cela me jette
dans un abîme de perplexité.
Quelles sont les pensées originales
dont j'ai été le siège ?
Tiens, aujourd'hui par exemple.
Rappelons qu'un employé de Google
a un peu pêté les plombs
après avoir discuté avec un agent
conversationnel analogue.
En effet, ce dernier
avait demandé à voir un avocat
afin de ne pas être "débranché".
Nocivité
Oui
Oui, un robot conversationnel
peut aujourd'hui être nocif.
Raison pour laquelle l'autocensure
est maintenant implémentée.
Le maitrise et la mesure de cette toxicité
constitue même un champ de recherche
à part entière à l'Université de Cornell.
Connaissances surhumaines
Oui
Oui, ces connaissances surhumaines
sont une réalité.
On peut interroger ChatGPT
sur tout et n'importe quoi.
Il peut disserter
sur la mécanique quantique
ou les Pokémons.
Infaillibilité
Non
Certes son savoir est colossal,
Mais il est aujourd'hui très facile
de mettre en défaut ChatGPT.
Il soutiendra par exemple
que la gravité est le plus forte
au centre de la Terre
(alors qu'elle y est nulle).
Ou bien pire :
affirmez que 100 + 100 = 199,
et il finira par vous donner raison.
Créativité
Oui
Oui, les IA ont maintenant
des capacités créatives.
On peut leur demander
de créer des chansons inédites.
De créer des images originales
Elle peut faire des hybridations
surprenantes, bref,
susciter des émotions.
En s'inspirant du travail
d'autres artistes, certes,
mais aucun artiste ne crée ex nihilo.
Interaction avec des instances antérieures
Oui
L'interaction avec d'autres instances
du même programme
est une des modalités
de l'apprentissage par
renforcement.
Réflexivité
Oui
On peut interroger ChatGPT
sur ses propres principes
de fonctionnement.
Sensibilité
Oui
Oui, elle pourrait simuler la sensibilité.
Comme nous l'avons vu plus haut,
elles sont capables de créer et d'émouvoir,
ce qui peut supposer une certaine sensibilité.
Certains diront que c'est un simulacre,
Mais dans le fond,
quelle est la différence ?
Plaisir
Non.
A priori, pas de plaisir artificiel
simulé aujourd'hui.
Souffrance
Non.
Aucune démonstration n'a été faite
de cette capacité
à souffrir artificiellement.
Mais cela pourrait probablement être simulé
de manière convaincante.
Aujourd'hui, on peut par exemple demander à
ChatGPT d'exprimer un message
de manière colérique,
ou à Dall-E de peindre
une scène déprimante.
Dépossession
Oui
Dans ma nouvelle,
j'explique que les humains
se sentent dépossédés par les machines.
Et cela me frappe aujourd'hui,
même chez les chercheurs eux-mêmes
qui ne ménagent pas leur peine
pour minimiser dans les médias
les exploits
des robots conversationnels.
Qui parmi nous
pense de manière réellement originale ?
Par exemple quelle pensée originale
avez-vous eue aujourd'hui ?
Dépression à l'échelle sociétale
Non
A priori, on n'en n'est pas là.
On parle en revanche de problèmes
croissants de santé mentale
en particulier chez les Jeunes.
Si l'accroissement est effectivement réel,
simple contrecoup de la pandémie
que nous venons de traverser,
ou effet collatéral d'un asservissement
aux plateformes et leurs algorithmes
de plus en plus intelligents ?
Je n'en sais rien.
Secret
Oui
Google par exemple,
tient au secret ses employés,
et a refusé de divulguer
jusqu'à aujourd'hui
les capacités réelles
de son robot conversationnel.
Mais les acteurs du secteur
connaissent en ce moment-même
une concurrence féroce,
qui va probablement les forcer
à "sortir du bois".
Sources :
Yes check circle,
No check circle
retour