OpenAI 发布了一份报告,详细介绍了其在打击滥用其人工智能模型方面所做的努力,揭示了与网络攻击、影响力活动和虚假信息有关的 20 多项行动的破坏情况。该报告由本-尼莫(Ben Nimmo)和迈克尔-弗洛斯曼(Michael Flossman)撰写,重点介绍了恶意行为者采用的各种策略,从调试恶意软件和生成网站内容,到创建虚假社交媒体角色和传播与选举有关的虚假信息。
根据该报告,最引人注目的启示之一是威胁行为者如何在其活动的中间阶段利用人工智能。尼莫和弗洛斯曼解释说: “威胁行为者最常使用我们的模型在特定的中间活动阶段执行任务–在他们获得互联网接入、电子邮件地址和社交媒体账户等基本工具之后,但在他们在互联网上部署社交媒体帖子或恶意软件等 “成品 ”之前。
人工智能模型在协助这些威胁行为者生成社交媒体内容、编写恶意脚本甚至调试恶意软件方面发挥了重要作用。不过,研究人员强调,到目前为止,人工智能对这些行动的影响还很有限,没有证据表明人工智能在创建新的恶意软件或病毒影响活动方面具有突破性的能力。