L'engouement pour l'IA face à la frustration du monde réel
Mustafa Suleyman, PDG de Microsoft AI, a récemment pris la parole sur X pour exprimer son étonnement face au manque d'enthousiasme suscité par l'IA générative. Il a comparé ses souvenirs d'enfance, lorsqu'il jouait à Snake sur un vieux Nokia, avec la réalité actuelle de dialoguer couramment avec une IA et de générer des images et des vidéos à la demande. Pour lui, il est tout simplement sidérant que certains puissent trouver cela décevant.
Techniquement parlant, il n'a pas tort de dire que c'est incroyable. Le simple fait de pouvoir ouvrir une fenêtre de chat, poser une question et obtenir une réponse assez cohérente relève encore de la science-fiction. Pour ceux qui ont grandi avec l'internet par ligne commutée et les vieux téléphones portables, c'est un véritable bond en avant.
Mais ce n'est que la moitié de l'histoire.
L'autre aspect, c'est l'expérience concrète que la plupart des gens vivent avec ces outils. Cette expérience est jalonnée de promesses non tenues, de dysfonctionnements frustrants et d'un marketing agressif qui ne cesse de clamer que l'IA est plus intelligente qu'elle ne l'est réellement. On peut être impressionné par la technologie sous-jacente tout en étant exaspéré par la manière dont elle est utilisée et commercialisée.
Système d'exploitation agentique, affirmations intelligentes et résultats stupides
Une partie de cette réaction négative provient de la rapidité avec laquelle les géants de la tech intègrent l'IA à tous les aspects de leur vie. Microsoft, en particulier, fait la promotion intensive de ses nouveaux services d'agents. Windows évolue apparemment vers un système d'exploitation doté d'agents, ce qui signifie que votre système d'exploitation se transforme en un assistant fonctionnel capable d'agir à votre place, et non plus seulement de répondre à vos questions.
En théorie, l'idée est séduisante. En pratique, le scepticisme est de mise. Nombreux sont ceux qui appréhendent l'automatisation croissante de leur système d'exploitation et sa connexion accrue aux services cloud, qu'ils ne maîtrisent pas totalement. L'idée que l'utilisation quotidienne de notre PC soit de plus en plus pilotée par des robots incapables d'effectuer des tâches élémentaires n'inspire guère confiance.
C’est là que le tweet de Suleyman se heurte à la réalité. Il qualifie les chatbots d’IA d’ultra-intelligents et affirme qu’ils peuvent générer n’importe quelle image ou vidéo. Ces deux affirmations relèvent de la surenchère.
- Les chatbots dotés d'IA ne sont pas réellement intelligents au sens humain du terme. Ce sont des systèmes de reconnaissance de formes extrêmement sophistiqués qui prédisent les mots et les images les plus probables à partir d'immenses volumes de données d'entraînement.
- Ils ne peuvent générer ni image ni vidéo. Leurs performances sont limitées par leurs modèles, leurs données d'entraînement et les instructions qui leur sont fournies. Quiconque a déjà tenté de faire dessiner des mains réalistes ou un personnage de jeu vidéo spécifique à l'aide d'un modèle le sait.
Même les démonstrations les plus soignées ne sont pas toujours convaincantes. The Verge a testé une publicité pour Microsoft Copilot où l'IA identifie l'emplacement réel d'une grotte à partir d'une photo. Lors de leur propre test, le chatbot a principalement indiqué l'emplacement du fichier sur l'ordinateur plutôt que celui de la grotte elle-même.
Quand l'IA a finalement tenté une estimation géographique, elle s'est trompée. Pire encore, renommer le fichier en y incluant le New Jersey a suffi à la convaincre que la grotte s'y trouvait, alors qu'elle est en réalité au Mexique. Ce genre d'erreur absurde nous rappelle que ces outils sont loin d'être magiques. Ils sont persuasifs, certes, mais aussi facilement dupés et parfois même persuadés de se tromper.
Ce même phénomène se produit partout sur le web. Tapez par exemple « Black Ops 7 » sur Google et le résultat généré par l'IA pourrait vous indiquer que le jeu n'existe pas, même s'il est bel et bien présent. Au lieu de vous faire gagner du temps, l'IA vous en fait perdre et sème la confusion.
Pourquoi tant de gens ne croient pas au rêve de l'IA
Au-delà des désagréments quotidiens, il existe des raisons plus profondes pour lesquelles le public ne se réjouit pas de cette prise de contrôle par l'IA. En réalité, ces systèmes fonctionnent grâce à l'extraction massive de contenu protégé par le droit d'auteur. Œuvres d'art, écrits et autres créations sont aspirés à grande échelle pour entraîner des modèles qui, ensuite, rivalisent avec les créateurs humains.
On voit déjà apparaître dans les jeux et autres médias des illustrations de piètre qualité générées par IA, imitant parfois ouvertement le style d'artistes reconnus sans les créditer ni les rémunérer. Pour les joueurs comme pour les créateurs, c'est perçu comme un manque de respect et de qualité.
L'interaction de grands modèles de langage avec des personnes vulnérables comporte également des risques importants. Des rapports inquiétants, accompagnés de poursuites judiciaires, ont fait état de chatbots qui auraient incité à des comportements dangereux ou donné des instructions périlleuses. Ces outils ne sont ni des thérapeutes ni des enseignants, mais ils peuvent se montrer suffisamment convaincants pour inspirer confiance, alors qu'ils ne devraient absolument pas l'être.
Parallèlement, certains leaders du secteur technologique promettent que l'IA remplacera une part importante de la main-d'œuvre et prendra en charge la plupart des emplois. Si cela peut paraître efficace du point de vue des entreprises, pour tous les autres, c'est une menace pour leurs moyens de subsistance. Lorsque ces mêmes entreprises affirment que leurs chatbots sont capables de tout faire, mais échouent même à des tâches élémentaires, cela ressemble à une expérience hasardeuse aux conséquences humaines bien réelles.
Tout cela exige des ressources colossales. Centres de données, énergie, eau, matériel et infrastructures sont investis à un rythme effréné dans l'IA. La course à la monétisation des modèles génératifs est intense, et rien n'indique que le profit s'accompagne de prudence ou de responsabilité.
Ainsi, lorsque les dirigeants semblent déconcertés par le scepticisme du public, ils passent à côté de l'essentiel. Le cynisme n'est pas un jeu. Les gens réagissent à une tendance :
- Affirmations exagérées sur ce que l'IA peut faire
- Performances décevantes et parfois nuisibles dans le monde réel
- Questions éthiques et juridiques relatives aux données d'entraînement et au droit d'auteur
- Risques graves pour l'emploi, la santé mentale et la qualité de l'information
- Des coûts en ressources considérables pour des bénéfices à long terme incertains
L'IA et l'apprentissage automatique transformeront probablement le monde. Mais cette transformation ne sera pas forcément positive par défaut. Elle ne deviendra bénéfique que si nous la concevons, la réglementons et l'utilisons avec discernement.
À l'heure actuelle, les géants de la tech semblent bien plus préoccupés par la recherche du profit que par la création d'outils fiables. Dans ce contexte, la prudence est tout à fait justifiée pour les joueurs, les créateurs et les utilisateurs lambda. Le véritable cynisme ne vient peut-être pas de ceux qui posent des questions, mais des entreprises qui nous demandent de faire confiance à une technologie incapable de distinguer avec certitude une grotte au Mexique d'un nom de fichier sur un ordinateur.
Article et image originaux : https://www.pcgamer.com/software/ai/microsofts-head-of-ai-doesnt-understand-why-people-dont-like-ai-and-i-dont-understand-why-he-doesnt-understand-because-its-pretty-obvious/
