Mais... Ils le savent que ça existe déjà sur tous les modèles connus (Dall-e, Midjourney et Stable Diffusion...).
C'est fatiguant ces annonces. Je vais finir par bloquer les sites qui tentent de créer des scoops à partir de que dalle...
Pour ceux qui ne veulent pas ouvrir le lien (et je vous conseille de ne pas aller lire ce truc), c'est juste une annonce pour dire que photoshop saura utiliser un modèle pour faire du out painting et in painting... Le truc qui a été montré sur presque toutes les démos de modèle de diffusion.
Et JVC nous fait l'annonce genre "c'est révolutionnaire ! Ça va changer le monde"... Putaclic quoi...
@metal3d pour le copyright je me suis mal exprimé, je parlais effectivement de la base d'entraînement. A priori ils utilisent les photos de leur base de données Adobe Stock ainsi que des données libres de droit.
@metal3d pour les alternatives intuitives je veux bien des noms. Perso je n'en connais pas. :)
@Vimar j'utilise InvokeAi. Tu peux charger une photo et tu fais tes in/out paint. Sinon dreamstudio commence à proposer de belles interfaces.
Après ça dépend ce que tu veux avoir dans le logiciel. Moi j'aime quand un outil fait une chose mais le fait bien. Donc je passe par plusieurs (2 ou 3…) logiciels quand je fais de la photo.
Note que blender permet d'utiliser Stable Diffusion comme moteur de rendu.
@Vimar Y'a des plugins GIMP qui arrivent (j'en ai testé un et j'en ai codé un autre mais qui est pas du tout propre 😁)
@Vimar oui oui. Au passage j'ai vu que huggingface est en train de bosser sur des modèles GPT like et Diffusion avec des bases ne contenant que du libre d'ailleurs.
@Vimar et côté copyright, c'est pas un souci de modèle mais de base d'entraînement. On a aucune information claire sur la base utilisée par Adobe.