¡El Trabajo MÁS IMPORTANTE que Explica el INTERIOR de una IA!

Votre vidéo commence dans 10
Passer (5)
Formation gratuite en FR pour les membres inscrits sur les sites de vidéos

Merci ! Partagez avec vos amis !

Vous avez aimé cette vidéo, merci de votre vote !

Ajoutées by admin
8 Vues
Anthropic ha logrado descifrar el aprendizaje interno de su modelo Claude 3, usando una nueva técnica de interpretabilidad. Con ella han encontrado los numerosos patrones que se esconden en las tripas de la red neuronal, lo cuál no sólo ha permitido entender mejor su funcionamiento, sino también poder controlarla. Hoy explicamos este trabajo.

???? ARTÍCULO INTERPRETABILIDAD - May. 2024
https://www.anthropic.com/news/mapping-mind-language-model

???? ARTÍCULO INTERPRETABILIDAD - Oct. 2023
https://www.anthropic.com/news/towards-monosemanticity-decomposing-language-models-with-dictionary-learning

???? PAPER INTERPRETABILIDAD - Oct. 2023
https://transformer-circuits.pub/2023/monosemantic-features/index.html

???? EDICIÓN: Carlos Santana Vega

--- ¡MÁS DOTCSV! ----

???? NotCSV - ¡Canal Secundario!
https://www.youtube.com/c/notcsv
???? Patreon : https://www.patreon.com/dotcsv
???? Facebook : https://www.facebook.com/AI.dotCSV/
???? Twitch!!! : https://www.twitch.tv/dotcsv
???? Twitter : https://twitter.com/dotCSV
???? Instagram : https://www.instagram.com/dotcsv/

-- ¡MÁS CIENCIA! ---

???? Este canal forma parte de la red de divulgación de SCENIO. Si quieres conocer otros fantásticos proyectos de divulgación entra aquí:

http://scenio.es/colaboradores
Catégories
Intelligence Artificielle
Mots-clés
dotcsv, machine learning, inteligencia artificial

Ajouter un commentaire

Commentaires

Soyez le premier à commenter cette vidéo.