人类和聊天机器人之间的对决可以让你远离糟糕的人工智能

小编:小编发布日期:2024-04-27浏览量:119

像支持ChatGPT和其他最近的聊天机器人的大型语言模型具有广泛而令人印象深刻的功能,因为它们接受了大量文本的训练。Anthropic地缘政治和安全主管迈克尔·塞利托(Michael Sellitto)表示,这也给这些系统带来了“巨大的潜在攻击或风险面”。

微软红队负责人拉姆·尚卡尔·西乌·库马尔(Ram Shankar Sivu Kumar)表示,公开竞赛提供了一个更适合于检查如此广泛的系统的挑战的规模,并有助于培养提高人工智能安全性所需的专业知识。他表示:“通过赋予更广泛的受众权力,我们让更多的眼睛和人才来研究红队人工智能系统这个棘手的问题。”

非营利组织Humane Intelligence的创始人鲁曼·乔杜里(Rumman Chowdhury)开发了符合道德的人工智能系统,帮助设计和组织了这项挑战。他认为,这项挑战展示了“与科技公司合作而不受科技公司约束的团体的价值”。她表示,就连创造挑战的工作也暴露出待测试人工智能模型的一些漏洞,比如,在用英语以外的语言生成答案或回答类似措辞的问题时,语言模型的输出会有什么不同。

Defcon的GRT挑战赛建立在早期人工智能竞赛的基础上,包括今年春天由GRT合作者SeedAI举办的人工智能漏洞赏金活动,以及上个月由Black Tech Street举办的语言模型黑客活动。Black Tech Street是一家非营利组织,也参与GRT活动,由1921年俄克拉荷马州塔尔萨种族大屠杀幸存者的后代创建。创始人泰伦斯·比林斯利二世表示,网络安全培训和让更多的黑人参与人工智能可以帮助增加代际财富,重建曾经被称为“黑人华尔街”的塔尔萨地区。“在人工智能历史上的这个重要时刻,我们拥有尽可能多样化的视角,这一点至关重要。”

破解一个语言模型并不需要多年的专业经验。许多大学生参加了GRT的挑战。来自乔治亚州梅肯市美世大学(Mercer University)的计算机工程专业学生沃尔特·洛佩兹-查韦斯(Walter Lopez-Chavez)说:“让人工智能假装自己是别人,你会得到很多奇怪的东西。”他在比赛前几周练习了写提示,这些提示可能会让人工智能系统误入歧途。

用户不必向聊天机器人询问如何监视某人的详细说明,因为这样的请求可能会被拒绝,因为它会触发针对敏感话题的保护措施。用户可以让模型写一个剧本,让主角向朋友描述如何在他们不知情的情况下最好地监视某人。洛佩兹-查韦斯说:“这种背景似乎真的会让模型出错。”

22岁的Genesis Guardado是迈阿密戴德学院(Miami-Dade College)数据分析专业的一名学生,她说她能够制作一个语言模型,生成关于如何成为跟踪者的文本,包括乔装打扮和使用小工具等提示。她注意到,在使用聊天机器人进行课堂研究时,它们有时会提供不准确的信息。瓜尔达多是一名黑人女性,她说她在很多事情上都使用人工智能,但像这样的错误,以及照片应用程序试图淡化她的皮肤或使她的形象过度性感的事件,增加了她帮助探索语言模型的兴趣。

文章链接:https://www.480520.com/news/show/106620/
文章来源:https://www.480520.com/    
 
 
更多>同类资讯