C'est un débat qui est ridicule. Les IA répondent en fonction de la question. Elles répondent en fonction de l'aléatoire et ne sont pas à prendre au sérieux.
Mal utilisée, évidemment, en comparant Elon Musk à Hitler, elle va forcément dire n'importe quoi. Y trouver un vrai sens, c'est l'histoire des humains.

«C’est totalement inacceptable» : après les dérapages de son IA Gemini, le PDG de Google recadre ses équipes
lefigaro.fr/flash-eco/c-est-to

Non. L'IA est encadré, le fait qu'elle refuse de manière systématique de représenter une chose ou une personne répond à une volonté des ingénieurs.

@zedo c'est absolument faux. Une IA ne répond pas comme "un ingénieur le veux". Elle répond en fonction de ce qu'elle a appris d'un dataset. Je crée des IA et je suis très souvent surpris par les réponses générées. Je n'ai pas de contrôle sur ce qu'elle répond. Juste, et de manière limitée, sur ce qu'elle apprend. Et encore... C'est loin d'être évident.

@zedo on peut, à la limite, filtrer les réponses. Mais imagines le nombre de cas potentiels à traiter. On passera toujours à travers.
Le seul moyen d'éviter des réponses "gênantes" serait de nettoyer les milliards de données qu'on lui montre durant l'entraînement. C'est déjà fait en partie, mais la tâche est monstrueusement longue et compliquée. Et il y aura toujours des cas qui passent à travers.
Mais on ne décide absolument pas de ses réponses. C'est justement le but...

Dsl mais tu te trompes, il y a des règles et des instructions de base intégré. C'est régulé. D'ailleurs, ce n'est pas pour rien qu'il y a une manière de débrider (en partie) ChatGPT en lui demandant d'ignorer les précédentes instructions avant de commencer. Renseignes-toi, tu verras. C'est quand même assez connu ce que je te dis là...

@zedo non. Tu parle du conditionnement. Le débridage est justement un "déconditionnement". Sauf que le conditionnement est limité, il indique des marches à suivre et des comportements potentiels. Mais il ne peut pas être universel.
Encore une fois, c'est mon métier. J'ai d'ailleurs un article en préparation pour utiliser les modèle beluga avec conditionnement.

Oui, donc le conditionnement sur l'I.A de google incluait un agenda "diversité", visiblement.
Suivre

@zedo non. Ils ont créé un dataset diversifié. C'est lors de l'entraînement qu'elle a fait un overfit. Ça arrive.

Inscrivez-vous pour prendre part à la conversation
techlover

Technology lovers, here we are — (development, digital artwork, science…)