C'est un débat qui est ridicule. Les IA répondent en fonction de la question. Elles répondent en fonction de l'aléatoire et ne sont pas à prendre au sérieux.
Mal utilisée, évidemment, en comparant Elon Musk à Hitler, elle va forcément dire n'importe quoi. Y trouver un vrai sens, c'est l'histoire des humains.
«C’est totalement inacceptable» : après les dérapages de son IA Gemini, le PDG de Google recadre ses équipes
https://www.lefigaro.fr/flash-eco/c-est-totalement-inacceptable-apres-les-derapages-de-son-ia-gemini-le-pdg-de-google-recadre-ses-equipes-20240228
@zedo c'est absolument faux. Une IA ne répond pas comme "un ingénieur le veux". Elle répond en fonction de ce qu'elle a appris d'un dataset. Je crée des IA et je suis très souvent surpris par les réponses générées. Je n'ai pas de contrôle sur ce qu'elle répond. Juste, et de manière limitée, sur ce qu'elle apprend. Et encore... C'est loin d'être évident.
@zedo on peut, à la limite, filtrer les réponses. Mais imagines le nombre de cas potentiels à traiter. On passera toujours à travers.
Le seul moyen d'éviter des réponses "gênantes" serait de nettoyer les milliards de données qu'on lui montre durant l'entraînement. C'est déjà fait en partie, mais la tâche est monstrueusement longue et compliquée. Et il y aura toujours des cas qui passent à travers.
Mais on ne décide absolument pas de ses réponses. C'est justement le but...
@zedo non. Tu parle du conditionnement. Le débridage est justement un "déconditionnement". Sauf que le conditionnement est limité, il indique des marches à suivre et des comportements potentiels. Mais il ne peut pas être universel.
Encore une fois, c'est mon métier. J'ai d'ailleurs un article en préparation pour utiliser les modèle beluga avec conditionnement.