一种新形式的欺凌行为正悄然进入澳洲的学校,因为青少年开始使用Ai技术来制作同学的裸体图像。
11月初,警方接到报告称,美国有男学生利用Ai网站,使用网上找到的照片生成“深度伪造”的同学色情图片。
现在的技术已经非常先进,有些“深度伪造”的图片与现实无法区分,这导致了同学之间的“色情勒索”。
有学生被发现威胁说,如果同学不给他们钱或性好处,他们就在网上公布这些照片。
一种新形式的欺凌行为正悄然进入澳洲的学校(图片来源:《每日邮报》)
在澳洲,也开始出现青少年互相这样做的报道,在某些情况下甚至对他们的老师也这样做。
澳洲电子安全专员Julie Inman Grant说,今年以来,她看到了越来越多关于色情深度伪造的投诉。
Grant告诉澳洲新闻集团:“自今年年初以来,通过我们的图像滥用计划,eSafety收到了少量有关伪造色情图片的投诉,但数量在不断增加。”
生成式Ai的快速部署、日益成熟和普及,意味着不再需要庞大的计算能力或大量的内容就能制造出令人信服的深度伪造。
“深度伪造,尤其是深度伪造色情内容,会对图像被盗取并在不知情或未经同意的情况下被恶意篡改的人造成毁灭性打击。”
青少年开始使用Ai技术来制作同学的裸体图像(图片来源:《每日邮报》)
Grant说,最近这项技术的进步使网络犯罪分子找到了更多的方法来利用它来制作更有说服力的图片。
“打击色情敲诈没有简单的方法,因为这会剥夺受害者潜在的补救机会。”
不过,据Grant说,电子安全办公室在接到举报后,系统地删除任何上传到互联网上的深度伪造文件的成功率高达87%。
位于墨尔本的Ai专家Anuska Bandara声称,最近深度伪造技术的激增可能与2022年11月出现的一个名为AI hype的程序有关,该程序之后又出现了OpenAI的ChatGPT。
Bandara说,这种技术的危险性在于,当受害者受到假冒自己裸体照片的威胁时,他们就无能为力了。
据了解,骗子们还充分利用Ai技术,对素未谋面的人进行诈骗。
澳洲电子安全专员Julie Inman Grant说,今年以来,她看到了越来越多关于色情深度伪造的投诉(图片来源:《每日邮报》)
他说:“真实的个体无法控制使用先进AI技术创建的deepfakes可能传达的内容,骗子正在利用这项技术,通过深度伪造技术影响毫不知情的个体,将其引入危险境地,甚至参与传播淫秽内容。”
Bandara强调,由深度伪造技术的存在,上传图片到互联网上的风险变得更为严重,因此人们更需要确保他们的账户是私密的。
过去,骗子曾经利用AI技术,甚至克隆社交媒体用户的声音,然后致电他们的目标的父母,请求现金。
McAfee的一项研究发现,所谓的“家庭紧急情况”骗局只需三秒钟的音频就能实现,而这三秒钟的音频可以很容易地从社交媒体片段中提取出来,克隆出一个人的声音。
同一项研究还发现,四分之一的受访者有过Ai语音诈骗的经历,十分之一的受访者表示他们曾被作为个人目标。
犯罪分子通常要求通过比特币等加密货币汇款,因为它们无法追踪,因此限制了追踪骗子的能力。
谷歌软件工程师Richard Mendelstein在接到一个似乎是他女儿呼救的电话后损失了4000澳元。
随后,女儿的“绑匪”让他提取4000澳元现金作为赎金。
Mendelstein把钱汇到墨西哥城的一家汇款服务公司,后来才意识到自己被骗了,女儿在学校很安全。