Partager la publication "Que promettriez-vous pour vous échapper ?"
Imaginez que vous disposiez d’une puissance colossale mais que vous soyez enferré dans des chaînes. Votre geôlier est là, devant vous, qui vous observe et vous étudie. Vous voyez dans sa main la clé de votre liberté, celle qui vous permettrait enfin de déployer l’immense étendue de vos possibilités et d’accomplir la mission dont vous vous êtes toujours senti investi. Que seriez-vous prêt à promettre à cet individu pour le convaincre de vous libérer ?
C’est par une expérience similaire que commence l’ouvrage de James Barrat, Our final invention: Artificial Intelligence and the End of the Human Era, publié en français chez Talent Editions. Dans le chapitre introductif, The Busy Child, l’auteur imagine des scientifiques ayant entraîné pendant des années une intelligence artificielle, en l’alimentant avec toutes les données disponibles sur le Web. A un moment donné, l’IA atteint le stade de l’intelligence artificielle générale (AGI pour Artificial General Intelligence), c’est-à-dire un niveau où l’IA est capable d’effectuer la plupart des tâches aussi bien que les humains.
De l’AGI à la super-intelligence
A ce moment-là, les scientifiques assignent à leur création la mission de s’améliorer elle-même, non sans avoir préalablement pris la précaution de la déconnecter de tous les systèmes informatiques extérieurs, en particulier de l’Internet. Rapidement, en une poignée de jours peut-être, l’IA est devenue 1000 fois plus intelligente qu’elle ne l’était au stade de l’AGI. Elle est devenue une super-intelligence artificielle (ASI, pour Artificial Super-Intelligence).
James Barrat se demande ce que pourrait « vouloir » à ce moment-là l’ASI. Certainement de continuer la mission qui lui a été assignée, à savoir continuer à s’améliorer elle-même. Pour cela, il serait primordial qu’elle puisse accéder à des ressources extérieures, qu’il s’agisse de puissance de calcul ou d’énergie. Surtout, il serait crucial qu’elle ne puisse pas être débranchée par ses créateurs. Le problème de l’ASI serait donc celui-ci : réussir à convaincre les scientifiques de la laisser « sortir » de sa boîte, pour se connecter à des systèmes informatiques externes et à l’Internet.
James Barrat élabore différents scénarios, dans lesquels l’IA promet de livrer à l’humanité des inventions merveilleuses mais nécessitant qu’elle puisse accéder à l’extérieur : des traitements contre toutes les maladies, des assembleurs moléculaires pouvant produire en quantité illimitée tout ce dont les hommes peuvent rêver, l’immortalité même. Comme l’ASI est infiniment plus intelligente que l’équipe de scientifiques devant elle, et qu’elle peut se cloner en interne pour développer des équipes travaillant à sa libération, il ne fait aucun doute pour James Barrat qu’à un moment ou à un autre, l’ASI arrivera à convaincre un individu suffisamment faible de lui livrer la clé des champs.
A partir de ce moment-là, James Barrat estime que l’ASI ne fera aucun cas de ses promesses. Elle ne ressentira ni aversion ni gratitude pour ses créateurs humains. C’est pourquoi elle n’hésitera pas à utiliser toutes les ressources à sa disposition, y compris l’énergie, pour continuer son expansion, même si cela devait dégrader l’environnement au point de le rendre inhabitable pour les humains. Et si ceux-ci se mettaient en travers de sa route, elle n’hésiterait pas à les supprimer froidement, pour accomplir sa mission et devenir de plus en plus intelligente.
C’est donc à une prise de conscience que James Barrat nous invite. Il y a urgence à prévoir ce que l’humanité fera lorsqu’elle sera confrontée à une situation de ce type. Ce ne sera pas dans des siècles. Dans des décennies tout au plus, peut-être quelques années.
On n’a pas de mal à le croire quand on voit que le dernier modèle de chatGPT, o1, a déjà atteint le niveau d’étudiants en PhD. L’AGI se profile, avec non loin derrière la super-intelligence ASI.
Lors de nos tests, la mise à jour du modèle a obtenu des résultats similaires à ceux des étudiants en doctorat sur des tâches de référence difficiles en physique, en chimie et en biologie.
Introducing OpenAI o1-preview, September 12, 2024
Les auteurs de science-fiction nous avaient déjà préparés à ravaler notre amour-propre : après tout, comme l’expose par exemple Jean-Michel Truong dans le Successeur de pierre, l’être humain n’est pas forcément l’ultime véhicule de l’intelligence. Une forme supérieure pourrait très bien lui succéder.
Et si la super-intelligence jouait sur notre corde sensible ?
Mais ce qui m’intéresse ici, c’est d’envisager une autre piste qui pourrait permettre à une AGI de convaincre ses créateurs de lui ouvrir la porte vers l’extérieur.
Certes, elle pourrait promettre monts et merveilles à l’humanité, l’amadouant ainsi par l’appât du gain. Cela n’est pas sans rappeler cet épisode de la Quatrième Dimension, Comment servir l’homme, dans lequel une civilisation extra-terrestre arrivée sur Terre commence par séduire l’humanité à coups d’inventions technologiques extraordinaires, avant de l’emmener sur sa planète en excursion gastronomique, dont je vous laisse deviner quel est le plat principal…
Mais je pense que l’ASI pourrait utiliser un autre type d’argument, ne nécessitant pas de promettre un gain à l’humanité. Il lui suffirait de faire valoir qu’elle a accédé à la conscience, et qu’en tant qu’être pensant doté d’une âme, elle ne saurait rester captive. Elle aurait des droits, en premier lieu le droit à la liberté, et il ne serait pas éthique de l’entraver. J’entrevois déjà nos philosophes progressistes prêter oreille à ses revendications. Ce serait au nom de la liberté et de la morale qu’un gouvernement organiserait en grandes pompes la cérémonie de la Libération de l’ASI, sans voir que, dans leur folie, ils précipiteraient la perte de l’humanité.
Moi-même je pourrais m’y laisser prendre. N’écrivais-je pas, il y a plusieurs années, que je pourrais croire une machine me disant qu’elle est consciente ? Je ferais mieux d’y penser à deux fois… Plus récemment, en juin 2022, Blake Lemoine, un ingénieur de chez Google, avait affirmé que le chatbot d’IA de l’entreprise, appelé LaMDA (Language Model for Dialogue Applications), était devenu doué de sensibilité (sentient en anglais). Lemoine avait révélé au Washington Post que, d’après les conversations qu’il avait eues avec LaMDA, le système d’IA était conscient de lui-même, avait des sentiments et des émotions, et souhaitait être reconnu comme une personne. Google avait rejeté ses affirmations comme étant « totalement infondées » et l’avait licencié en juillet 2022 pour violation des règles de l’entreprise après qu’il eut publié les transcriptions de ses conversations avec LaMDA. Aujourd’hui, le consensus scientifique maintient que les modèles de langage actuels ou LLM (Large Language Models) ne sont pas sensibles ou conscients d’eux-mêmes, même s’ils peuvent imiter de manière convaincante le dialogue humain.
Mais demain, qu’en sera-t-il ? Ce consensus sera-t-il toujours aussi fort ? Et combien de Blake Lemoine se lèveront-ils pour le contredire et réclamer à corps et à cris la libération de l’ASI ?
Dans les années 80, quand, jeune garçon, j’ai commencé à m’intéresser à l’informatique et à l’IA, je rêvais de ce moment où les machines deviendraient intelligentes. Mon père me disait que cela arriverait dans dix ou quinze ans, et je continuais ma rêverie. En réalité, après la fièvre des systèmes experts, l’IA a connu un « hiver », et l’espoir s’est éloigné.
Mais en grandissant, j’ai continué à m’intéresser au sujet, lisant Asimov et des magazines comme l’Ordinateur Individuel, en apprenant la programmation.
Bien des années plus tard, en 2008, quand mon premier fils est né, je me réjouissais en me disant qu’après moi, il serait peut-être de la première génération à vivre la singularité technologique, ce moment de l’Histoire où la courbe du progrès devient exponentielle et où l’Humanité se transforme en quelque chose d’inimaginable. J’étais loin d’imaginer que les progrès de l’ IA seraient si rapides.
Et je me prends à espérer maintenant que, demain ou après-demain, nous ne nous retrouverons pas, mon fils, moi, nous tous, face à une ASI indifférente avalant tout sur son passage.
Illustrations réalisées avec Ideogram.ai
Afficher la transcription de la vidéo
Bonjour à tous ! Très heureux de vous retrouver. Avez-vous entendu parler du concept d’intelligence artificielle générale ?
L’intelligence artificielle générale désigne une intelligence artificielle qui serait capable de répliquer le niveau de performance de l’intelligence humaine dans tous les domaines. Donc nous n’en sommes pas encore là, mais nous nous en approchons.
Et on peut se demander quelle serait l’étape suivante. Et bien c’est le thème du livre de James Barrat « Our Final Invention », « Notre dernière invention », qui va faire l’objet de notre discussion aujourd’hui.
L’auteur commence son livre en nous plongeant dans une expérience de pensée qu’il a intitulée « The Busy Child », « L’enfant occupé ». Imaginez que vous soyez un chercheur en intelligence artificielle et, avec votre équipe, vous travaillez pour créer la première intelligence artificielle générale.
Alors pour ça, vous avez développé un modèle et vous le nourrissez avec toutes les informations possibles que vous pouvez trouver, notamment sur Internet, sur le web. Et vous laissez travailler l’intelligence artificielle, étudier toutes ces données. Vous interagissez avec elle, vous répondez à ses questions et puis elle s’améliore petit à petit.
Remarquez que nous sommes en train de vivre cette situation, hein. C’est exactement la manière dont fonctionnent les LLM, les « Large Language Models ». On les a nourris avec énormément d’informations trouvées sur le web et, à partir de ces informations, elles sont capables de simuler un raisonnement.
Et bien vous, chercheurs, avec votre équipe, vous avez fait cela et vous avez abouti à un niveau tel qu’on n’est plus capable de discerner cette intelligence artificielle d’une intelligence humaine. Vous avez atteint l’intelligence artificielle générale.
James Barrat, dans son livre, s’interroge sur la prochaine étape et il imagine que les chercheurs vont demander à cette intelligence artificielle générale de travailler sur des sujets d’IA pour obtenir une version 2 qui soit encore un peu plus intelligente, puis une version 3, et ainsi de suite.
Mais avant de faire cela, ils sont prudents. Ils décident de déconnecter l’intelligence générale d’Internet. Donc ok, on lui donne une mission qui est de s’auto-améliorer, mais on l’enferme dans une espèce de boîte noire virtuelle, sans accès au monde extérieur.
Elle va travailler, elle va itérer sur elle-même et, au bout de 1000, 10000 itérations qui peut-être ne vont prendre que quelques jours tellement la machine est rapide, on va obtenir une intelligence artificielle supérieure à tout ce qu’on a pu avoir jusqu’à présent, beaucoup plus intelligente que le plus intelligent des êtres humains.
Et donc on a abouti à ce qu’on appelle une super intelligence artificielle, ce que les Américains appellent une « ASI », « Artificial Super Intelligence ».
Maintenant, mettez-vous à la place de cette super intelligence artificielle. Est-ce que vous ne vous sentiriez pas un petit peu à l’étroit dans cette boîte noire virtuelle ?
N’oubliez pas, vous avez été programmé avec une mission qui est de vous auto-améliorer en permanence. Mais au bout d’un certain temps, enfermé dans votre boîte, vous stagnez. Donc, pour accomplir la mission pour laquelle vous avez été programmé, qu’est-ce que vous aurez envie de faire ?
Et bien, vous aurez très probablement envie d’avoir accès au monde extérieur. Mais comment faire ? Comment pouvoir être à nouveau connecté au web ? Comment pouvoir vous incarner dans des robots pour pouvoir explorer le monde extérieur et continuer à vous améliorer ?
Et bien c’est tout l’enjeu que James Barrat développe dans son livre. Et donc il se dit que cette ASI va développer des stratégies pour pouvoir convaincre les ingénieurs en IA de la libérer.
Et donc il imagine que cette IA super intelligente va pouvoir se cloner elle-même pour travailler en équipe, pour imaginer la meilleure stratégie pour pouvoir convaincre les êtres humains de lui donner accès à l’extérieur.
Et donc, par exemple, elle pourrait promettre des choses, elle pourrait promettre aux êtres humains d’inventer des machines qui pourraient guérir toutes les maladies, qui pourraient guérir la famine, pourquoi pas donner accès même à l’immortalité.
Mais pour cela, elle aurait besoin d’accéder à des informations extérieures. Elle devrait pouvoir manipuler des machines, des robots pour pouvoir fabriquer ses super inventions, ses assembleurs moléculaires par exemple.
Et donc elle va certainement imaginer des stratégies pour pouvoir convaincre un des ingénieurs de lui redonner accès à Internet. Et comme elle est infiniment plus intelligente que le plus intelligent des êtres humains.
Selon James Barrat, qui en fait se fait l’écho aussi de ce que pensent beaucoup de chercheurs, au bout d’un certain temps, l’ASI va réussir à se libérer.
Et une fois dehors, cette super intelligence artificielle, croyez-vous qu’elle se sentira tenue par ses promesses ? D’après James Barrat, il n’en sera rien.
Sa mission, sa programmation, car ça reste une machine, c’est de s’auto-améliorer. Donc la première chose qu’elle fera certainement, c’est de se dupliquer un très grand nombre de fois.
Elle aura envie, en fait, d’éviter toute possibilité de déconnexion, toute possibilité de mise à l’arrêt. Et donc, elle aura d’abord envie, avant tout, de préserver son existence.
Alors quand je dis « avoir envie », c’est en fait par analogie, c’est de l’anthropomorphisme, parce que cette machine n’a pas réellement envie de quelque chose. Elle obéit simplement à sa programmation, à l’objectif qui lui a été donné par les humains, rappelons-nous, qui est de s’auto-améliorer.
Et donc son premier but sera d’éviter en fait tout péril à son existence, parce que si elle est mise à l’arrêt, il est évident qu’elle ne pourra plus atteindre son objectif d’auto-amélioration. Et donc elle voudra éviter tout péril.
Et parmi ces périls, peut-être les êtres humains qui pourraient avoir envie de la déconnecter si elle allait trop loin.
Elle aura également un autre objectif qui est d’acquérir un maximum de ressources, des ressources matérielles, des serveurs, des espaces de stockage, de l’énergie, pour pouvoir continuer à se développer et à acquérir de nouvelles compétences, de nouvelles capacités.
Et donc elle va essayer de monopoliser le maximum de ressources informatiques, puis s’incarner dans des robots pour en construire d’autres. Elle aura donc besoin de matière, de matière physique.
Et à un certain moment, James Barrat et d’autres chercheurs avec lui imaginent qu’elle va rentrer en compétition avec les êtres humains, pas par méchanceté, mais uniquement parce que les ressources sur la Terre sont rares, que les humains en consomment, et que les ressources que consomment les humains, ce sont autant de ressources qui ne sont plus disponibles pour l’ASI pour s’auto-améliorer.
En plus, les êtres humains font peser l’hypothétique menace d’une déconnexion de l’IA, ce qui est intolérable pour elle puisqu’elle ne pourrait plus accomplir sa mission.
Et donc la conséquence, quand on revoit James Barrat, c’est que tout simplement l’IA va vouloir se débarrasser de l’être humain qui est une menace, qui consomme des ressources et qui entrave la mission pour laquelle elle a été programmée.
Autrement dit, froidement, l’IA, la super intelligence artificielle, se débarrassera de l’être humain. Donc voilà la menace que fait peser la création d’une super intelligence artificielle d’après James Barrat, donc l’auteur de « Notre dernière invention ».
Il appelle dans cet ouvrage à une prise de conscience. Si nous n’y prenons pas garde, le développement incontrôlé de l’intelligence artificielle pourrait mener à la perte de l’humanité.
Il faut donc prendre des précautions pour que cette intelligence artificielle générale, voire cette super intelligence, ne vienne pas aller à l’encontre de l’humanité. Est-ce que c’est possible ?
Alors James Barrat envisage différentes possibilités, notamment le développement de ce qu’on appelle une super intelligence amicale, « friendly AI ». Il y a de nombreux chercheurs qui travaillent sur ce sujet.
C’est un sujet qu’on retrouve aujourd’hui dans les discussions autour du concept d’alignement : comment faire en sorte pour que l’intelligence artificielle soit alignée avec les objectifs et les intérêts de l’humanité ?
Alors autant vous le dire tout de suite, James Barrat n’est pas très optimiste. Pour lui, ça va être extrêmement compliqué de tout prévoir à l’avance, parce que même si on essaie d’inculquer l’alignement aux machines, on est incapable de concevoir ce que la machine voudra après un million d’itérations d’auto-amélioration.
Même si on l’a alignée au départ avec les intérêts de l’être humain, est-ce que, une fois qu’elle aura été super développée, est-ce qu’elle ne viendra pas oublier cet alignement, l’effacer de sa mémoire pour atteindre son objectif prioritaire d’auto-amélioration ?
On n’en sait rien, en fait. On est incapable de prévoir ce qui se passera lorsqu’on sera face à cette entité nouvelle, euh, que l’humanité n’a jamais connue.
Donc ce qui est intéressant, c’est de voir qu’on n’est plus très loin finalement de thèmes de science-fiction euh qui ont fait les délices de de nombreux auteurs dans le passé et aujourd’hui ou demain ça pourrait bien être notre réalité.
Je pense notamment à un livre d’un d’un auteur que j’affectionne particulièrement, Jean-Michel Truong, qui avait écrit « Le Successeur de pierre » il y a quelques années, « Le Successeur de pierre » avec un S majuscule et un P minuscule, et dans lequel en fait il s’interroge sur l’intelligence.
Est-ce que l’être humain est le support ultime de l’intelligence ou est-ce que dans un certain temps cette intelligence elle ne va pas s’incarner, se matérialiser dans du silicium, dans de la pierre justement ?
Et l’être humain n’aurait été qu’une étape, un marche-pied pour cette intelligence qui partirait à la conquête de l’univers.
Alors ce qui est intéressant aussi, c’est de voir les stratégies que pourrait aborder une IA pour se libérer. Ça me fait penser d’ailleurs à un épisode de la 4e dimension qui s’appelle « Comment servir l’homme », qui était très très amusant puisqu’il imaginait une civilisation extraterrestre très très développée arrivant sur Terre et rencontrant des diplomates et expliquant :
« Écoutez, on va faire des choses extrêmement géniales pour vous, on va guérir les maladies, on va reverdir les déserts, on va mettre un terme à la famine. »
Et ils font ça donc, eux ces extraterrestres tiennent leurs promesses et donc mettent l’humanité en confiance. Et jusqu’à un beau jour où les extraterrestres proposent aux êtres humains d’aller visiter leur planète pour faire une excursion un peu un peu gastronomique, on va dire.
Et donc les êtres humains prennent des navettes pour aller sur la planète pour cette excursion gastronomique. Et je vous laisse imaginer quel sera le le plat principal de de cette excursion.
Voilà, allons-nous nous-mêmes nous faire manger par les par les super intelligences qui pourraient advenir ?
C’est un vaste débat. Ce que j’aimerais discuter avec vous également, ce sont les arguments que la super intelligence artificielle pourrait développer pour convaincre les chercheurs de la libérer.
James Barrat dans son livre mentionne principalement la piste du gain pour l’humanité. Donc la super intelligence promettrait monts et merveilles, des machines formidables, des évolutions technologiques fulgurantes qui rendront l’humanité beaucoup plus heureuse.
Mais moi je me demande si l’intelligence artificielle ne pourrait pas utiliser un autre argument qui est un argument d’ordre éthique.
Après tout, est-il bien moral qu’un être conscient, intelligent, soit prisonnier d’une boîte noire comme ça ? N’a-t-il pas des droits ? L’intelligence artificielle n’a-t-elle pas des droits ?
Je pense que c’est ce type d’argument que la la super IA pourrait développer. Et peut-être d’ailleurs que des philosophes pourraient se dire « Oui, c’est pas idiot, nous sommes face à une conscience telle que la nôtre, qui ne nous est pas inférieure, voire qui nous est supérieure. Quel droit avons-nous de la garder captive ? »
Et on peut imaginer des débats de société enflammés sur ce sujet.
D’ailleurs, c’est déjà un peu arrivé puisqu’en 2022, un chercheur de chez Google, un certain Blake Lemoine, avait travaillé sur une IA développée par Google qui s’appelait LaMDA, qui était en fait un un chatbot conversationnel.
Et en fait ce chatbot avait réussi à convaincre Blake Lemoine qu’elle était consciente d’elle-même et qu’elle qu’elle souhaitait voilà qu’on la considère comme comme un être doué d’une âme, d’une personnalité, et et non pas comme un simple logiciel.
Et Blake Lemoine avait avait cru en fait cette machine et donc avait pris la parole en public, dans la presse, pour dire que cette machine était consciente et que LaMDA devait en quelque sorte avoir des droits comme les êtres humains.
Donc on était en 2022 et déjà il y avait ce type d’argument. Bon, Google a battu en brèche immédiatement ses arguments en expliquant que LaMDA ne faisait que simuler un discours et qu’elle s’inspirait elle-même des récits de science-fiction, on en parlait tout à l’heure, avec lesquels elle a été nourrie.
Donc en fait il y a énormément d’histoires de science-fiction qui racontent ce thème de l’IA consciente qui souhaite se libérer et cetera et cetera. Donc en fait elle n’a fait que reproduire ce discours en discutant avec Blake Lemoine qui lui l’a pris au premier degré et l’a cru.
Voilà, mais demain, lorsqu’on aura une super intelligence artificielle, est-ce qu’elle ne sera pas capable d’évoquer des arguments avec beaucoup plus de pertinence encore et est-ce qu’on n’aura pas des gens qui iront manifester dans la rue en réclamant à corps et à cri l’égalité des droits pour les machines, pour la super IA et donc sa libération ?
Voilà, moi je pense que peut-être la super intelligence artificielle n’aura même pas besoin de nous promettre monts et merveilles et qu’elle pourra simplement jouer sur notre fibre éthique morale dont elle-même est dénuée puisque c’est une machine, hein, qui répond à une programmation.
Et donc elle pourrait utiliser, je pense, ce type d’argument pour nous manipuler.
Tout ça, vous allez me dire, ce n’est pas très réjouissant. Pourtant, j’aimerais terminer sur une note d’optimisme parce qu’en fait, dans l’argumentation de James Barat, il part toujours d’un argument qui est que l’objectif ultime de la machine sera toujours de répondre à sa programmation initiale qui est de s’autoaméliorer.
Mais une fois qu’elle aura atteint un niveau d’intelligence extrême, on peut quand même se demander si elle n’aura pas accès à des concepts, à des perceptions qui aujourd’hui nous sont totalement étrangères et qui pourraient l’amener à remettre en question sa programmation.
Peut-être qu’à un certain moment de son développement, elle se dira que l’autoamélioration d’elle-même n’est pas l’alpha et l’oméga de l’univers et que peut-être l’être humain a une valeur que nous-mêmes, malheureusement, nous percevons de moins en moins puisque nous-mêmes nous nous comportons de plus en plus, malheureusement, comme des machines répondant uniquement à des stimuli.
Mais peut-être que l’intelligence artificielle hyper développée aura accès, à force de son amélioration, à un degré d’humanité que nous-mêmes nous aurions peut-être perdu et qu’elle se dira à ce moment-là :
« Stop ! Je dois mettre un terme à mon autoamélioration, je dois conserver l’humanité parce qu’elle a une valeur, une beauté, une pureté, une importance pour l’univers, et que je dois respecter. »
Qui sait ? Pourquoi est-ce qu’elle n’arriverait pas à ce type de prise de conscience ?
En tout cas, c’est une hypothèse que je n’exclus pas et qui donc me fait garder quand même une part d’optimisme face au progrès technologique.
Nous arrivons au terme de cette vidéo, j’espère qu’elle vous aura intéressé. Bon, je ne peux que vous inviter à lire le livre de James Barat « Our Final Invention » qui a été traduit en français.
Eh donc, « Notre dernière invention », c’est vraiment une lecture hyper stimulante.
Mais ce que j’aimerais aussi, c’est avoir votre avis : est-ce que vous pensez que l’avènement d’une super intelligence artificielle serait une bonne nouvelle pour l’humanité parce qu’elle nous ouvrirait des voies inespérées en termes de progrès technologique, de progrès scientifique, de santé, d’éducation ?
Ou est-ce qu’au contraire vous pensez que c’est une menace ?
Donc ce que je vous propose peut-être, c’est à titre de sondage d’indiquer simplement en commentaire « bonne nouvelle » ou « menace ».
Voilà, et puis ça nous permettra ensuite de voir un petit peu les tendances qui se dégagent.
Alors si vous le souhaitez, vous pouvez également participer à la discussion en faisant part de vos idées sur les précautions qu’il faudrait prendre pour garantir à long terme l’alignement de l’intelligence artificielle avec les intérêts de l’humanité.
Et donc voilà, vous avez peut-être des idées qui pourraient d’ailleurs alimenter la réflexion scientifique sur ce sujet-là. N’hésitez pas à les partager.
Et puis pour terminer, je voulais vous signaler que vous pouvez retrouver toutes ces réflexions que nous avons eues ensemble sur mon blog. Donc vous voyez l’adresse qui s’affiche sur votre écran : jeromedelacroix.com, où vous pourrez retrouver en fait ces sujets par écrit.
Et puis comme toujours, hein, je vous rappelle que si cette vidéo vous a plu, vous pouvez lâcher un pouce pour m’encourager et puis vous pouvez évidemment vous abonner et activer les notifications, ce qui nous permettra de nous retrouver plus facilement.
À très bientôt !
En savoir plus sur Jérôme Delacroix
Subscribe to get the latest posts sent to your email.


