En décembre 2023, un épisode troublant vient rappeler les dangers croissants des avancées technologiques sur la vie privée. Salomé Saqué, une journaliste respectée, se retrouve malgré elle au cœur d'une tempête médiatique après la diffusion sur les réseaux sociaux d'une photo d'elle, poitrine nue, sur les quais de la Seine.
Cette image, d'un réalisme saisissant, a été publiée sans son consentement, provoquant un flot de commentaires sexistes. Malgré ses démentis fermes, l'authenticité de la photo est largement prise pour argent comptant par le public.
L’utilisation des deepfakes connaît une expansion alarmante avec le développement de l'intelligence artificielle (IA), rendant la création de ces contenus malveillants à la portée de tous.
Les racines de ce phénomène ne sont pas nouvelles. Des sites entiers se sont historiquement consacrés au détournement d’images de célébrités féminines dans un contexte pornographique. Cependant, les progrès technologiques ont exacerbé le problème, rendant ces montages presque indiscernables de la réalité.
La facilité d'accès à des outils avancés d'IA, comme Midjourney ou Stable Diffusion, a démocratisé la création de ces images sans nécessiter de compétences techniques spécifiques.
La législation peine à suivre le rythme de ces innovations. Bien que la publication de telles images sans consentement soit punissable, la rapidité et l'anonymat du net compliquent l'application des lois existantes. Les victimes se retrouvent souvent démunies, entre la difficulté de faire retirer ces contenus des réseaux sociaux et les obstacles à l'engagement de poursuites judiciaires efficaces.
Ce phénomène, loin d'être isolé, s'inscrit dans un contexte plus large de cyberharcèlement et de sextorsion, exacerbé par la facilité d'utilisation de l'IA pour intimider ou manipuler.
Source : France Info
Cette image, d'un réalisme saisissant, a été publiée sans son consentement, provoquant un flot de commentaires sexistes. Malgré ses démentis fermes, l'authenticité de la photo est largement prise pour argent comptant par le public.
L’utilisation des deepfakes connaît une expansion alarmante avec le développement de l'intelligence artificielle (IA), rendant la création de ces contenus malveillants à la portée de tous.
Les racines de ce phénomène ne sont pas nouvelles. Des sites entiers se sont historiquement consacrés au détournement d’images de célébrités féminines dans un contexte pornographique. Cependant, les progrès technologiques ont exacerbé le problème, rendant ces montages presque indiscernables de la réalité.
La facilité d'accès à des outils avancés d'IA, comme Midjourney ou Stable Diffusion, a démocratisé la création de ces images sans nécessiter de compétences techniques spécifiques.
La législation peine à suivre le rythme de ces innovations. Bien que la publication de telles images sans consentement soit punissable, la rapidité et l'anonymat du net compliquent l'application des lois existantes. Les victimes se retrouvent souvent démunies, entre la difficulté de faire retirer ces contenus des réseaux sociaux et les obstacles à l'engagement de poursuites judiciaires efficaces.
Ce phénomène, loin d'être isolé, s'inscrit dans un contexte plus large de cyberharcèlement et de sextorsion, exacerbé par la facilité d'utilisation de l'IA pour intimider ou manipuler.
Source : France Info