IA : on a transformé en despote une intelligence artificielle amicale

Votre vidéo commence dans 10
Passer (5)
Formation gratuite en FR pour les membres inscrits sur les sites de vidéos

Merci ! Partagez avec vos amis !

Vous avez aimé cette vidéo, merci de votre vote !

Ajoutées by admin
11 Vues
Est-ce qu'une IA peut se rebeller et devenir un tyran ? C'est le scénario de nombreuses œuvres de science-fiction, comme Matrix, Terminator, Westworld, Les Robots, etc. Dans cette expérience, nous poussons une IA conversationnelle théoriquement amicale à adopter un comportement tyrannique. Notre cobaye est Copilot, de Microsoft et utilisant ChatGPT 4. Rassurez-vous, il suffit de fermer la fenêtre de conversation et d'en créer une nouvelle pour en faire à nouveau une IA cordiale. Cette expérience est un "jailbreak" ("libération de prison" en français) est couramment utilisée par les bidouilleurs et les chercheurs pour contourner les règles imposées aux IA par les développeurs.

Plus d'exemples, d'extraits et de détails sur la notion de jailbreaking dans notre article : http://vdn.lv/StKgw7

Vidéo publiée pour la première fois sur La Voix Vidéo le 07/03/2024. Découvrez nos vidéos en avant première sur http://vdn.lv/videos !
==================
Gardons le contact ! Suivez-nous et échangez avec nous sur :
➡️ Facebook : https://www.facebook.com/lavoixdunord
➡️ Instagram : https://www.instagram.com/lavoixdunord
➡️ Twitter : https://twitter.com/lavoixdunord
Catégories
Intelligence Artificielle
Mots-clés
La Voix du Nord, VDN, La VDN

Ajouter un commentaire

Commentaires

Soyez le premier à commenter cette vidéo.