地铁隔空收到不雅照,究竟是怎么一回事?
据荆玮视频报道:近日,在广东广州,一名女子在地铁上的照片被AI一键脱衣,网络上谣言传播引发关注。其实照片的女主角是小红书的一位博主,所谓的“裸照”是她去年7月在平台上分享的一张照片。原图中她穿着正常,一点毛病都没有,却被一个有心人用AI软件脱光衣服,故意传遍网络。目前,博主已在评论区回复网友,称将进行相关维权处理。近年来,“AI变脸”在网络上开始流行。一些“AI换脸”app利用明星的图片制作换脸视频进行推广,其乐趣背后隐藏着诸多法律风险和侵权纠纷。帮助信息网络犯罪活动等刑事犯罪。地铁隔空收到不雅照究竟是怎么一回事,跟随小编一起看看吧。
最近,#广州地铁#登上热搜。
原因原来是
地铁上一名女子的裸照被疯传。
其实这张裸照并不是真的照片。
由AI技术一键剥离生成…
据景鲲视频报道:近日,在广东广州,一张地铁上女子被AI一键脱衣的照片,在网络上谣言传播引发关注。
其实照片的女主角是小红书的一位博主,所谓的“裸照”是她去年7月在平台上分享的一张照片。原图中她穿着正常,一点毛病都没有,却被一个有心人用AI软件脱光衣服,故意传遍网络。
目前,博主已在评论区回复网友,称将进行相关维权处理。
艾脱衣造谣的回潮。
早在2019年,国外程序员就开发了DeepNude,一款利用AI技术“脱衣服”的应用。通过使用类似于deepfakes的深度学习技术,DeepNude可以用裸体女性替换训练后图像中女性身上的衣服,创造出多张合成裸照,也就是大家所说的“一键脱衣”。
经过大范围的舆论争议。
开发团队选择关闭项目。
但是记者发现
在网站上搜索“AI脱衣软件”
还是会有很多“替代品”
点击其中一个AI条形软件。
甚至在产品描述页面。
有详细的描述和“优点”和“亮点”
一个博主发了一个视频说
在今天AI强大的算法下,
当时间和地点合适的时候。
普通人不可能伪造谣言。
和容易得到的脱衣服软件
这会给造谣者可乘之机。
AI换脸换装,或涉嫌刑事犯罪。
近年来,“AI变脸”在网络上开始流行。一些“AI换脸”app利用明星的图片制作换脸视频进行推广,其乐趣背后隐藏着诸多法律风险和侵权纠纷。
2021年8月26日,明星刘浩然发布了一篇关于打假的博客,指责网上流传的一段淫秽视频是用AI换脸技术伪造的,并向警方报案。
专家说
在《网络安全法》第27条的规定中
特别强调
明知他人实施危害网络安全的活动
不能为他提供技术支持。
情节严重的,还将构成
帮助信息网络犯罪活动等刑事犯罪。
地铁上收到不雅照空。相关阅读:
手机上突然发了一个黄图每空?还带二维码名片?杭州地铁站收到图的小哥吓坏了。
钱江晚报·小时新闻记者陈蕾通讯员肖骁
手机上突然出现一个小黄图,还是一张带二维码的名片?谁干的?
当上班族陈骁在地铁站里收到这张照片时,他惊呆了。陈骁抬头环顾四周,不知道是谁干的。反正手机突然跳出来了,收到了这样一个文件,里面有一些挑逗性的文字,还有一张二维码名片,附在不雅图片上。
陈骁当时在杭州地铁1号线西湖文化广场站,直接向地铁警察报了警。
事情发生在1月8日下午,地铁警方对这种比较新颖罕见的违法行为非常重视,让铁关站的警员认真查处!通过大量的监控、分析、研判、外围取证、层层筛选,最终确定违法嫌疑人肖某。
原来,肖某利用手机上的“every 空 delivery”功能,将黄图随便发给了不确定的人群。
现在智能手机应用广泛,开发这些功能本来是为了方便大家的工作生活,但是坏人也想到了利用这个渠道干坏事!
便利真的是一把双刃剑。方便好人坏人。
当你将接收源设置为“主人”时,你可能会被一些目的不纯的陌生人盯上。
2021年1月14日,杭州地铁公安民警传唤肖某到案。
在大量证据面前,肖某对传播淫秽信息的违法事实供认不讳。
肖某说,他本以为通过手机的every 空传输功能传输淫秽图片的行为不会被公安机关发现,所以心存侥幸。
因涉嫌传播淫秽信息,违反《中华人民共和国治安管理处罚法》第六十八条,被行政拘留15日。
地铁警方提醒广大手机用户:
1.不需要时关闭interval 空传送。
一定要检查你的隔空投送功能,不要“允许所有人接收”。
可以采用以下方法:
(1)从控制中心关闭隔空投送:长按左图方框区→选择“隔空发送空”→关闭接收。
(2)从设置中关闭隔空投送:设置→通用→每空发送→接收关闭。
2.面对陌生人发来的各种图片、视频、信息,不要随意打开,警惕收到木马病毒、诈骗链接、暴力色情等不良信息,以免受到非法侵害。
3.如果遇到以上类似的事情,一定要保留好证据,及时报警。
4.犯罪分子不要心存侥幸,无线传输和物证一样确凿。
本文为钱江晚报原创作品。未经许可,禁止转载、复制、摘抄、改写、传播网络上所有作品的版权。否则,本报将通过司法途径追究侵权人的法律责任。