Mais... Ils le savent que ça existe déjà sur tous les modèles connus (Dall-e, Midjourney et Stable Diffusion...).
C'est fatiguant ces annonces. Je vais finir par bloquer les sites qui tentent de créer des scoops à partir de que dalle...
@Vimar et côté copyright, c'est pas un souci de modèle mais de base d'entraînement. On a aucune information claire sur la base utilisée par Adobe.
@metal3d pour le copyright je me suis mal exprimé, je parlais effectivement de la base d'entraînement. A priori ils utilisent les photos de leur base de données Adobe Stock ainsi que des données libres de droit.
@metal3d pour les alternatives intuitives je veux bien des noms. Perso je n'en connais pas. :)
@Vimar j'utilise InvokeAi. Tu peux charger une photo et tu fais tes in/out paint. Sinon dreamstudio commence à proposer de belles interfaces.
Après ça dépend ce que tu veux avoir dans le logiciel. Moi j'aime quand un outil fait une chose mais le fait bien. Donc je passe par plusieurs (2 ou 3…) logiciels quand je fais de la photo.
Note que blender permet d'utiliser Stable Diffusion comme moteur de rendu.
@Vimar Y'a des plugins GIMP qui arrivent (j'en ai testé un et j'en ai codé un autre mais qui est pas du tout propre 😁)
@Vimar oui oui. Au passage j'ai vu que huggingface est en train de bosser sur des modèles GPT like et Diffusion avec des bases ne contenant que du libre d'ailleurs.
@Vimar il existe un certain nombre d'interfaces intuitives avec des outils de création et d'édition qui utilisent, entre autres, les modèles de diffusion.
J'ai envie de dire que photoshop est même à la bourre.
De toutes façons je trouve photoshop infâme... J'ai donc un biais