L’application DeepNude, utilisée pour créer de fausses photos de femmes nues a été contraint de fermer sa plateforme un jour après son lancement. Les développeurs de l’application ont déclaré qu’ils ont sous-estimé le fait que les gens puissent utiliser l’application de manière abusive. DeepNude ne sera plus disponible à la vente et ses créateurs ne comptent pas développer une autre version. Toutefois, ils craignent que des applications similaires ne soient créées par d’autres développeurs. L’équipe chargée de la conception de DeepNude a également mis en garde contre le partage du logiciel en ligne, car selon eux, cette initiative serait contraire aux conditions de services de l’application.

DeppNude était disponible pour Windows et Linux. Cette fonctionnalité utilisait une intelligence artificielle pour faire apparaitre des photos nues de femmes sur certaines images. L’application était disponible en version payante et gratuite. La version gratuite plaçait en filigrane une large mention indiquant que c'était un "fake" tandis que la version payante plaçait le filigrane dans un coin de l’écran, pouvant facilement être enlevé. Les développeurs de DeepNude estiment que l’application pourrait être  utilisée pour éditer des vidéos pornographiques de femmes sans leur consentement avec risque de harcèlement. Lors de la fermeture de la plateforme, les concepteurs de DeepNude ont déclaré que le monde n’était pas encore prêt pour accueillir leur application. Selon eux, aucune protection ne permet de limiter les utilisations abusives de l’application.

L’#application #DeepNude a été fermée un jour après son lancement Click to Tweet
À lire aussi Social Capital lance CaaS (Capital as a Service), pour évaluer les opportunités d’investissement