女子地铁内“裸照”被疯传?网友怒了:科技不该用在这上面!

来源:北京青年报

3月28日,话题#女子地铁照被AI一键脱衣传播#冲上热搜。

正常照片被人“一键脱衣传到网上

据报道:近日,在广东广州,一张女子在地铁上的照片被AI一键脱衣,造谣图随后在网上广泛传播。

事实上,照片的女主角是一名博主,所谓的“裸照”是她去年7月在某平台分享的一张照片。原图中她衣着正常,没有任何不妥之处,但被人用AI软件一键脱衣,故意全网散播。

在这则图文分享的评论区,已经有众多网友发评论,提醒博主被造谣的事实,催促她尽快报警,也有人热心地帮她辟谣澄清。

目前博主已在评论区回复各位网友,称会进行维权。

被关闭的AI脱衣仍有替代品

早在2019年,国外程序员就开发出了DeepNude这款使用AI技术“脱衣”的应用,后因广泛的舆论争议,该项目被关闭。

但记者发现在网上搜索“AI脱衣软件”,仍然会出现众多“替代品”。点开其中一个AI脱衣软件,甚至在产品说明页中,写着详细的说明和“优势”、“亮点”。

有博主发视频称,在现今AI强大的算法下,时间、地点都对得上的情况下,伪造谣言对普通人来说百口莫辩。而唾手可得的脱衣软件则更让造谣者有机可乘。

AI换脸换装可能涉嫌刑事犯罪

和AI脱衣相似的,还有近年来走红网络的“AI换脸”。一些“AI换脸”的App使用明星的图片制作换脸视频进行推广,其趣味性背后暗藏了不少法律风险和侵权纠纷。

明星刘昊然就曾在2021年8月26日发博打假,控诉网上流传的某淫秽视频为AI换脸技术伪造,并向警方报案。

专家表示,《网络安全法》第二十七条特别强调,明知他人实施危害网络安全活动的,不能够为他提供技术支持。如果情节严重,还会构成帮助信息网络犯罪活动罪等刑事犯罪。

今年1月10日开始施行的《互联网信息服务深度合成管理规定》中也提出,要对深度合成技术应用提出规范。

正如网友所说的,科技不该被用在这上面,滥用技术的人必须付出应有的代价。

来源|新闻晨报、泾渭视频、央视网

展开阅读全文

页面更新:2024-03-30

标签:北京青年报   地铁   网友   刑事犯罪   替代品   裸照   深度   女子   照片   技术   科技   视频   软件

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top