Le mystérieux sac à dos de Sam Altman, une « valise nucléaire » pour tuer ChatGPT en cas d’apocalypse ?

Le PDG d’OpenAI affirme détenir la clé pour éteindre les serveurs qui hébergent ChatGPT au cas où l’IA deviendrait incontrôlable, détruisant ainsi complètement le système qui permet à cette technologie de fonctionner.

Sam Altman, l’inventeur de ChatGPT, fait partie de ces chefs d’entreprise les plus visionnaires qui soient. En quelques années, le fondateur d’OpenAI, la société chargée du développement de l’intelligence artificielle, qui se présente sous forme de chatbot, est devenu une figure emblématique de la technologie. Il est aussi connu pour sa position qui privilégie la prudence face à l’avenir de l’IA. Effectivement, Sam Altman croit en l’apocalypse. Il s’y prépare même. Et c’est d’ailleurs pourquoi il ne se sépare jamais de son « sac à dos nucléaire ».

Une préoccupation majeure autour des progrès de l’IA

Il faut dire que les perspectives actuelles, et surtout le futur de l’intelligence artificielle qui reste un mystère, terrifient bon nombre d’individus. Le fondateur d’OpenAI a beau être à l’origine de l’une des plateformes conversationnelles dopées à l’IA les plus populaires au monde. Il reconnaît également les préoccupations qui l’entourent. Face à la possibilité que les robots se retournent un jour contre l’humanité, Altman garde toujours avec lui un sac à dos bleu que l’on peut comparer à une mallette nucléaire d’un président des États-Unis.

Les autorités doivent prendre des mesures

Cet objet contiendrait la clé pour détruire ChatGPT, si jamais ses intentions tournaient mal. La clé en question serait un MacBook qui a la capacité de désactiver à tout moment l’ensemble des serveurs hébergeant l’IA. Bien qu’il n’existe aucune preuve attestant la véracité de cette information, cela démontre que le patron d’OpenAI prend très au sérieux la menace de voir un jour ChatGPT supplanter les humains.

Un scénario apocalyptique qui fait penser au programme SkyNet du film Terminator de James Cameron. Pour éviter le pire, Altman incite ainsi les gouvernements à prendre des mesures sérieuses pour limiter les risques, et ce, le plus rapidement possible.

Une réalité qui nécessite un encadrement à l’échelle mondiale

En mai dernier, le créateur de ChatGPT a même cosigné une déclaration selon laquelle « l’atténuation du risque d’extinction lié à l’IA devrait être une priorité mondiale, au même titre que d’autres risques sociétaux tels que les pandémies et les guerres nucléaires ». Parmi les autres signataires du document figurait Demis Hassabis, directeur exécutif de Google DeepMind. Après tout, dans un monde où l’intelligence artificielle est en train de façonner l’avenir de l’humanité, il est devenu primordial de trouver le bon équilibre entre progrès technologique et sécurité, sous peine d’en payer le prix.

[wpdiscuz-feedback id= »jzpivkayxa » question= »Veuillez laisser un commentaire à ce sujet » opened= »0″]Que pensez-vous de cette théorie ? N’hésitez pas à partager votre avis, vos remarques ou nous signaler une erreur dans le texte (cliquez sur la bulle à droite pour publier un commentaire).[/wpdiscuz-feedback]

Plus de 900 000 abonnés nous suivent sur les réseaux, pourquoi pas vous ?
Abonnez-vous à notre Newsletter et suivez-nous sur Google Actualité et sur WhatsApp pour ne manquer aucune invention et innovation !
Source
programmeur.ch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *


Bouton retour en haut de la page