重要提醒!这种照片不要随便发_澎湃号·政务_澎湃新闻-The Paper

据韩媒报道,针对女性的深度伪造犯罪在韩国日趋猖獗。Deepfakes是利用AI换脸制造色情图频。韩国网民在通讯软件“电报”(Telegram)上发现大量聊天群,其中有成员创建和分享露骨的性“深度伪造”图像,对象涉及未成年女孩。在此过程中,加害者还毫不犹豫地公布受害女性的身...

比如最近备受关注的韩国女性被 AI 换脸造成恐慌的事件,就是 Deepfake 伪造的现实案例。还有今年 2 月香港一家跨过公司员工被邀请进 Deepfake 做的“高管视频会议”中,然后被骗走 2 亿港币的事件,也让人大为咋舌。可见,面对全球范围的技术挑战,培养具有实战能力的...

简单来说,Deepfake可以理解为人们常说的“AI换脸”。此次被曝的深度伪造性犯罪在韩国掀起了巨大的舆论危机。上周,韩国总统尹锡悦敦促政府部门彻底调查以根除此类数字性犯罪,韩国警方宣布将实施为期7个月的深度伪造性犯罪严打行动。 处于风暴中心的Deepfake技术也被频...

实际上,饱受深度伪造困扰的女性并不只在韩国。欧美女演员中,“黑寡妇”斯嘉丽·约翰逊、“赫敏”艾玛·沃特森,以及小天后泰勒·斯威夫特都是第一批遭到AI换脸的受害者,国内明星和网红也...

事情起因是最近一周,韩国警方发现了某加密软件中存在,大量与学校、医院、军队有关的涉案社交媒体群组,利用Deepfake(深度伪造)技术换脸合成色情照片和视频,参与用户多达22万人。经初步调...

更多内容请点击:重要提醒!这种照片不要随便发_澎湃号·政务_澎湃新闻-The Paper 推荐文章