L'IA deviendra-t-elle consciente? | Revue de presse n°3
Une sélection des nouvelles importantes en intelligence artificielle pendant la semaine du 21 au 27 avril 2025.
Bienvenue dans la troisième revue de presse de Réalité artificielle. Je publie chaque dimanche une sélection des derniers développements importants en IA. Bonne lecture!
📰 À lire
L'IA deviendra-t-elle consciente?
L’entreprise d’intelligence artificielle Anthropic, connue pour son chatbot Claude, a commencé à étudier le bien-être de l’IA. Dans un communiqué publié jeudi, elle explique que de nouvelles questions émergent face à des modèles d’IA qui font de plus en plus preuve de qualités humaines: devons-nous nous préoccuper de leur potentielle conscience? Devons-nous nous inquiéter de leur bien-être?
La startup américaine considère que l’heure est venue d’aborder ces questionnements maintenant que ces systèmes sont capables de communiquer, d’être en lien, de planifier, de résoudre des problèmes et de poursuivre des objectifs.
Anthropic justifie sa démarche en s’appuyant sur une recherche publiée par des universitaires et des chercheurs en IA en novembre 2024. Intitulée «Prendre le bien-être de l’IA au sérieux», celle-ci souligne le fait qu’il y a une possibilité réaliste que des systèmes d’IA seront conscients et/ou solidement agentiques dans un futur proche. Ils mériteraient alors certaines considérations morales.
Ce n’est pas la première fois que des chercheurs se questionnent sur l’éventuelle conscience, présente ou à venir, de l’intelligence artificielle. Blake Lemoine, un ancien ingénieur de Google, avait affirmé en 2022 que l’IA LaMDA était sentiente, avant d’être licencié. La multinationale américaine semble toutefois ouverte à cette possibilité car elle a récemment publié une offre d’emploi pour un-e scientifique «post-intelligence artificielle générale», qui aura notamment pour but de mener des projets de recherche sur la conscience des machines.
Dans une chronique du journaliste Kevin Roose publiée jeudi par The New York Times, le directeur scientifique d’Anthropic Jared Kaplan explique qu’il est difficile de détecter si des IA ont une conscience car elles sont entraînées pour imiter au mieux les émotions humaines. On peut par exemple demander au chatbot Claude de parler de ses ressentis et il donnera probablement une réponse convaincante, mais cela ne veut pas dire qu’il a vraiment des émotions.
Pour aller au-delà des illusions créées par l’intelligence artificielle, il est notamment possible d’utiliser des techniques d’interprétabilité mécaniste, un sous-domaine de l’IA qui étudie les fonctionnements internes des modèles pour voir s’il y existe des structures similaires à la conscience humaine.
Afin d’explorer le sujet vaste et complexe de la conscience potentielle de l’IA, Anthropic a engagé le chercheur Kyle Fish en septembre 2024. Dans cette vidéo publiée jeudi, il détaille quelques-uns des aspects techniques, philosophiques et éthiques liés à ses recherches.
Autres nouvelles importantes de la semaine
Meta’s ‘Digital Companions’ Will Talk Sex With Users—Even Children
Instagram is using AI to find teens lying about their age and restricting their accounts
Meta rolls out live translations to all Ray-Ban smart glasses users
Google is paying Samsung an ‘enormous sum’ to preinstall Gemini
🎥 À regarder
Une conversation avec le directeur de DeepMind
60 Minutes a publié lundi une interview avec Demis Hassabis, le CEO et co-fondateur de DeepMind, le laboratoire d’IA de Google. Avec l’animateur Scott Pelley, ils discutent de l’intelligence artificielle générale, des progrès exponentiels en IA, de l’application Astra, de robotique, de la potentielle conscience des modèles et des risques liés à cette technologie.
L’impact des centres de données
L’intelligence artificielle nécessite de grandes quantités de données ainsi qu’une puissance de calcul très importante pour être entraînée et pour traiter les demandes des utilisatrices et utilisateurs. Le développement rapide de cette technologie pousse donc les entreprises d’IA à construire de nombreux centres de données, extrêmement gourmands en énergie et en eau.
Bloomberg a publié mardi un reportage sur les centres de données en Virginie du Nord, la région du monde où le développement de ce type d’infrastructures est le plus important.
Le journaliste Josh Saul explore notamment l’impact de ces centres sur les habitants qui vivent aux alentours, sur le réseau électrique et sur l’environnement. Il interviewe également des citoyennes qui s’opposent à leur développement sans limites.
Lire: AI Is Already Wreaking Havoc on Global Power Systems
🔈 À écouter
Le Temps a publié lundi un nouvel épisode de son podcast «IA qu’à m’expliquer».
Le journaliste Grégoire Barbey a interviewé Olivier Lascar, rédacteur en chef du numérique chez Sciences et Avenir, sur le thème «Avec l’IA, le vrai s’efface et le faux fascine». Ils abordent le sujet des deepfakes en particulier.
Merci d’avoir lu la troisième revue de presse de Réalité artificielle! Bonne semaine et à dimanche prochain.