L’entrepreneur en innovation technologique Elon Musk a récemment exhorté les gouverneurs du pays à gérer les connaissances artificielles « avant que le passé ne soit trop loin ». Musk insiste sur le fait que l’intellect artificiel présente un «risque existentiel pour l’humanité», une vision alarmiste qui confond la technologie de l’IA avec la science-fiction. Cependant, même les experts de l’IA comme moi reconnaissent que nous avons maintenant des préoccupations valables concernant son effet sur les armes, les carrières et la vie privée. Il est tout à fait naturel de se demander si nous devons produire de l’IA. Je pense que la réponse est oui. Mais ne devrions-nous pas faire quelque chose pour au moins ralentir l’avancement de l’IA, de l’attention des soins? Le problème est que si nous y parvenons, des nations comme l’Asie nous rattraperont. Le cheval IA a toujours quitté la grange, et notre meilleure supposition est généralement d’essayer de le guider. L’IA ne doit pas être militarisée, et toute IA devra avoir un «changement off» imprenable. Au-delà de cela, nous devons gérer l’impact tangible des méthodes de l’IA (par exemple, la sécurité des voitures autonomes) plutôt que de chercher à esquisser et à freiner le domaine de l’IA amorphe et en train de créer rapidement.Je suggère trois règlements pour les systèmes d’intelligence artificielle qui peuvent s’inspirer, mais créer en plus, des «trois règles de la robotique» que l’écrivain Isaac Asimov a lancées en 1942: un robot ne peut pas blesser un peuple ou, par inaction, permettre à un individu de visiter lui faire du mal; un robot doit se conformer aux commandes que lui proposent les humains, sauf lorsque ce type de demandes bouleverserait toute la législation passée; et un robot doit garder son propre style de vie tant que ce type de sécurité ne parvient pas à entrer en conflit avec les deux lois et règlements précédents. Ces trois directives juridiques sont élégantes mais peu claires: qu’est-ce qui, en particulier, constitue un préjudice en matière d’IA? Je suggère une base plus concrète pour prévenir les dommages à l’IA, selon environ trois lignes directrices. Tout d’abord, un programme d’IA doit émettre une gamme complète de réglementations qui affectent son propriétaire. Cette astuce inclurait les techniques individuelles, d’entreprise et gouvernementales. Nous ne voulons jamais que l’IA participe à la cyberintimidation, agence web Lille à la manipulation des stocks ou aux risques terroristes; nous ne voulons pas que le FBI publie des techniques d’IA qui poussent les individus à commettre des infractions criminelles. Nous ne voulons pas de véhicules autonomes qui voyagent via des feux rouges ou, plus sérieusement, des outils d’IA qui violent les traités mondiaux. Notre législation typique doit être modifiée afin que nous ne puissions pas affirmer que notre méthode d’IA a géré une chose que nous ne pouvions pas comprendre ou prévoir. Pour le dire simplement, «Mon IA le fait» ne devrait jamais alibi contre les actions de la loi. Ma 2ème astuce est une méthode IA qui doit évidemment révéler qu’elle ne doit pas être humaine. Alors que nous avons expérimenté dans le cas des robots d’exploration – des programmes informatiques qui peuvent entamer un dialogue de plus en plus élégant avec des hommes et des femmes réels – la société a besoin d’être assurée que les méthodes d’IA sont évidemment définies comme ce genre de. En 2016, un bot connu sous le nom de Jill Watson, qui fournissait comme un associé instructeur un cours d’étude en ligne à Georgia Technology, a incité les élèves à penser que c’était en fait humain. Une illustration encore plus grave est l’utilisation répandue de robots politiques pro-Trump sur les réseaux sociaux au cours des jours et des nuits menant autant qu’aux élections de 2016, selon des scientifiques d’Oxford. Ma directive garantirait que les individus sachent à quel moment un bot usurpe l’identité d’une personne. Nous avons maintenant déjà remarqué, par exemple, @DeepDrumpf – un bot qui a imité humblement Donald Trump sur les Tweets. Les techniques d’IA ne créent pas seulement des tweets artificiels; ils produisent également des didacticiels vidéo d’informations bidon. Des experts de l’Université ou du Collège de Washington ont récemment publié une vidéo d’imitation de l’ancien PDG Barack Obama à travers laquelle il semblait convaincant de parler de mots greffés sur une vidéo de lui faisant référence à une chose complètement différente. Mon conseil suivant est qu’un système d’IA ne peut pas conserver ou divulguer des informations privées sans autorisation explicite par le biais de la manière d’obtenir ces détails. En raison de leur capacité exceptionnelle à produire, enregistrer et analyser immédiatement des informations, les techniques d’IA ont été dans un emplacement privilégié pour acheter des informations privées. Pensez à toutes les discussions qu’Amazon Echo – un «haut-parleur intelligent» trouvé dans de plus en plus de foyers – est au courant, ou peut-être les informations et les faits que le jeune peut divulguer accidentellement à votre jouet, comme une IA Barbie. Même des robots de ménage apparemment inoffensifs font des graphiques de votre propriété. Ce sont certainement des détails dont vous avez besoin pour contrôler avec succès.