Why Your LLM Prompts Are Failing (And How to Fix Them)

Votre vidéo commence dans 10
Passer (5)
Formation gratuite en FR pour les membres inscrits sur les sites de vidéos

Merci ! Partagez avec vos amis !

Vous avez aimé cette vidéo, merci de votre vote !

Ajoutées by admin
7 Vues
In episode 869 of the SuperDataScience podcast, @JonKrohnLearns and Varun Godbole discuss how prompting LLMs is like talking to a random person. Varun explains that LLMs don’t know your context or expectations, so the clarity of your prompt determines the quality of the response. Just like speaking to someone new, vague questions lead to vague answers, while clear, specific prompts get better results.

Watch the full interview "869: AI Should Make Humans Wiser (But It Isn’t) — with Varun Godbole" here: https://www.superdatascience.com/869
Catégories
prompts ia
Mots-clés
SuperDataScience Podcast, Jon Krohn, Varun Godbole

Ajouter un commentaire

Commentaires

Soyez le premier à commenter cette vidéo.