Un algorithme peut-il déjouer les retouches Photoshop ?
Adobe aborde la question dans le cadre du projet « About Face ».
L’éditeur en a présenté les grandes lignes lors de sa conférence MAX, à l’occasion de la traditionnelle session de prospective technologique Sneaks.
À la baguette, Richard Yang (en illustration principale), coauteur d’une étude sur le sujet.
Ses travaux, menés avec d’autres employés d’Adobe ainsi qu’avec des pairs de Berkeley, ont notamment porté sur l’outil « Modification des traits du visage ».
Cette composante du filtre Fluidité détecte automatiquement les caractéristiques faciales. Elle aide, pour reprendre les termes d’Adobe, à « les modifier pour embellir un portrait ou ajouter une touche amusante à une photo ».
Pour entraîner leur algorithme, les chercheurs ont récupéré près de 200 000 photos de visages sur Internet – principalement via OpenImage.
Ils ont tiré parti de la prise en charge du JavaScript dans l’outil « Modification des traits du visage » pour automatiser la retouche de l’ensemble des images. Chacune a subi 6 fois ce processus.
De ce lot a été tiré un échantillon dit de « validation » (Val dans le tableau ci-dessous), composé de 10 000 images, dont la moitié modifiées.
Un deuxième échantillon dit de « test » a été constitué, avec 50 images Flickr retouchées par un artiste.
Dans la moitié des cas, il s’agissait de rendre le visage plus beau ; dans l’autre moitié, de modifier son expression.
La publication du rapport d’étude remonte à la mi-juin. Mais les chercheurs l’ont mis à jour début septembre. On peut ainsi constater comment l’algorithme a évolué.
Les différents échantillons de données, eux, n’ont pas changé.
Les mesures effectuées auprès d’humains, non plus. 40 d’entre eux ont été sollicités par l’intermédiaire du service Mechanical Turk d’Amazon. Chacun a eu 35 paires d’images à analyser. Six secondes étaient laissées à chaque fois pour détecter l’image modifiée.
Le taux de réussite s’est élevé à 53,5 % sur les images de l’échantillon « Val » ; à 71,1 % pour l’échantillon « Test ».
Qu’en est-il de l’algorithme ? Examinons tout d’abord la version de juin.
Les performances se sont sensiblement améliorées avec la version de septembre. Elles se sont surtout « harmonisées », au sens où l’algorithme s’en tire systématiquement mieux avec des images haute résolution et une « augmentation » – ce qui n’était pas le cas en juin.
Dans l’absolu, l’algorithme ne peut pas détecter les retouches appliquées à autre chose que le visage. Même si ses performances sont correctes (64 % à une image et 85,6 % à deux images).
Un an et demi après sa publication initiale, le RGESN est mis à jour. Tour…
Le régulateur britannique de la concurrence renonce à une enquête approfondie sur le partenariat de…
À partir de juillet 2024, Microsoft imposera progressivement le MFA pour certains utilisateurs d'Azure. Aperçu…
La pépite française de l'informatique quantique Pasqal va installer un ordinateur quantique de 200 qubits…
Le fonds de pension australien UniSuper a vu son abonnement Google Cloud supprimé - et…
OpenAI orchestre un déploiement très progressif de GPT-4o, y compris de ses capacités multimodales.