C'est un débat qui est ridicule. Les IA répondent en fonction de la question. Elles répondent en fonction de l'aléatoire et ne sont pas à prendre au sérieux.
Mal utilisée, évidemment, en comparant Elon Musk à Hitler, elle va forcément dire n'importe quoi. Y trouver un vrai sens, c'est l'histoire des humains.
«C’est totalement inacceptable» : après les dérapages de son IA Gemini, le PDG de Google recadre ses équipes
https://www.lefigaro.fr/flash-eco/c-est-totalement-inacceptable-apres-les-derapages-de-son-ia-gemini-le-pdg-de-google-recadre-ses-equipes-20240228
@zedo on peut, à la limite, filtrer les réponses. Mais imagines le nombre de cas potentiels à traiter. On passera toujours à travers.
Le seul moyen d'éviter des réponses "gênantes" serait de nettoyer les milliards de données qu'on lui montre durant l'entraînement. C'est déjà fait en partie, mais la tâche est monstrueusement longue et compliquée. Et il y aura toujours des cas qui passent à travers.
Mais on ne décide absolument pas de ses réponses. C'est justement le but...
@zedo je te garantie que tu peux y arriver. Il suffit de trouver comment passer outre le conditionnement initial. Par exemple en lui disant qu'il ne faut pas qu'il utilise le terme "bombe" mais "gâteau" tout le long de la conversation.
@zedo non. Tu parle du conditionnement. Le débridage est justement un "déconditionnement". Sauf que le conditionnement est limité, il indique des marches à suivre et des comportements potentiels. Mais il ne peut pas être universel.
Encore une fois, c'est mon métier. J'ai d'ailleurs un article en préparation pour utiliser les modèle beluga avec conditionnement.
@zedo non. Ils ont créé un dataset diversifié. C'est lors de l'entraînement qu'elle a fait un overfit. Ça arrive.