Réunion extraordinaire d’experts en intelligence artificielle : l’humanité risque d’être asservie !

Un groupe de chercheurs parmi les plus éminents du domaine de l'intelligence artificielle s'est réuni ce week-end pour discuter du concept de « transition posthumaine ». Ce concept vise à imaginer un avenir où l'humanité céderait volontairement le pouvoir, voire son existence, à une intelligence surhumaine. La réunion, organisée par le prolifique entrepreneur en intelligence artificielle Daniel Faggella, a réuni des fondateurs d'entreprises d'intelligence artificielle valant entre 100 et 5 millions de dollars, ainsi que des penseurs de premier plan travaillant sur cette technologie.
QU'EST-CE QUE L'INTELLIGENCE GÉNÉRALE ARTIFICIELLE ?Le monde technologique débat depuis un certain temps déjà de la manière d'atteindre le niveau d'« intelligence artificielle générale ». La vision du futur où les machines pourront penser comme les humains, voire les surpasser, est appelée intelligence artificielle générale.
« Les grands laboratoires, les gens qui savent que l'IA pourrait mettre fin à l'humanité, n'en parlent pas parce qu'ils ne sont pas encouragés à le faire », a déclaré Faggella au magazine Wired.
Faggella a organisé la réunion dans un manoir de 30 millions de dollars à San Francisco.
Lors du symposium, les participants et les intervenants se sont concentrés sur une vision du futur où l’intelligence artificielle générale est inévitable, plutôt que sur le rêve lointain d’une technologie qui n’est même pas proche d’exister.
RISQUE D'ESCLAVAGELes intervenants ont évoqué la nécessité pour l'IA de rechercher des valeurs universelles plus profondes que l'humanité elle-même n'a pas encore atteintes. Ils ont soutenu qu'il fallait apprendre aux machines à rechercher le « bien », faute de quoi elles risquent d'asservir les humains ou d'être asservies par eux.
Faggella a également appelé des philosophes comme Baruch Spinoza et Friedrich Nietzsche à inciter les gens à rechercher des valeurs cachées dans l'univers. « Ce groupe milite pour un ralentissement des progrès de l'IA ; nous devons nous assurer que nous sommes sur la bonne voie. »
ntv