le Intelligence artificielle faire partie de notre avenir, mais que se passe-t-il quand ils se font face?
Depuis des annĂ©es, nous parlons d’intelligences artificielles, de programmes et de machines capables de prendre nos propres dĂ©cisions, de s’adapter Ă l’environnement et aux situations et de savoir comment choisir comment un humain le ferait ou non.
Une grande partie de la soi-disant Intelligence Artificielle que nous avons aujourd’hui est basĂ©e sur des algorithmes d’apprentissage et non sur un esprit virtuel vraiment intelligent, mais il existe des projets très intĂ©ressants tels que ceux rĂ©alisĂ©s. DeepMind, le dĂ©partement Google.
La confrontation entre l’intelligence artificielle
Ces derniers temps, nous avons vu certaines des avancĂ©es de DeepMind, telles que l’IA qui a expirĂ© dans le jeu Go, mais aussi d’autres dĂ©veloppements tels qu’une IA rĂ©cente qui Ă©crasait les joueurs de poker professionnels. L’intelligence artificielle peut ĂŞtre appliquĂ©e Ă cela, Ă des choses plus simples comme le contrĂ´le d’un système d’Ă©clairage, ou Ă d’autres tâches plus complexes et sensibles. cependant, Que se passe-t-il lorsque deux IA ne pensent pas la mĂŞme chose et entrent en conflit?
peur de l’intelligence artificielle 5
C’est ce qu’ils ont testĂ© dans les expĂ©riences de DeepMind: tout comme deux personnes peuvent ĂŞtre en dĂ©saccord sur un sujet et prendre des dĂ©cisions diffĂ©rentes, les chercheurs ont Ă©tudiĂ© le comportement de l’intelligence artificielle. face Ă des dilemmes sociaux.
Au cours de l’enquĂŞte, que vous pouvez lire sur le blog DeepMind et ce document, nous avons expĂ©rimentĂ© un scĂ©nario dans lequel deux IA devaient collecter des pommes, autant qu’elles le pouvaient, avec la particularitĂ© qu’elles pouvaient Ă©lectrocuter l’autre IA pour la bloquer temporairement. .
Agressivité ou coopération, selon les règles
Ils ont constatĂ© que s’il restait beaucoup de pommes, les IA se concentraient sur leur cueillette, mais quand elles Ă©taient rares, les Ă©clairs commençaient. La chose a changĂ© lorsqu’ils ont introduit une IA supĂ©rieure dans l’environnement, qui a directement commencĂ© Ă Ă©lectrocuter le reste avant de cueillir des pommes, comme pour comprendre qu’il valait mieux ĂŞtre agressif Ă tout moment pour atteindre l’objectif de cueillir des pommes.
Dans une autre expĂ©rience, deux intelligences ont dĂ» en attraper une troisième dans un environnement fermĂ©. Plus les IA sont avancĂ©es, plus elles auraient d’intention Parmi eux pour attraper le troisième Ă©tait plus âgĂ©.
Les chercheurs soutiennent que cela ne signifie pas que l’Intelligence Artificielle veut toujours ĂŞtre agressive pour atteindre l’objectif, mais que, en s’adaptant aux règles qu’ils avaient, ils ont cherchĂ© la stratĂ©gie la plus efficace et, quand plus ils ont de ressources disponibles, le plus ils en profitent.
Par consĂ©quent, le rĂ©sultat qu’ils tirent de tout cela est que, si nous voulons que l’IA se comporte comme elle le devrait Ă l’avenir, et que nous ne soyons pas soumis Ă une rĂ©bellion des machines, nous devons veiller Ă ce que les règles dans lesquelles ils opèrent sont parfaitement dĂ©finies.