百事论坛   本站首页   贵湖华人   主题论坛   滑铁卢黄页 
Linear        

长久以来,AI圈子里默认着一个让人心安的假设。 大家普遍认为,想要通过数据投毒的方式污染一个大模型,攻击者必须控制训练数据里一定百分比的内容。比如说,想污染一个用海量数据训练的千亿参数模型,你可能得准备占总数据量0.1%的“毒药”。 (水城百事)

by 匿名, Sunday, October 12, 2025, 10:47

[ No text ]

  96 views

这个假设就像一道天然的护城河。因为大模型的训练数据量是天文数字,哪怕是0.1%,换算下来也是一个不切实际的庞大数据量。想搞这么多数据,难度堪比登天,所以大模型似乎天生就对这种投毒有“规模免疫力”。 这个想法,现在被彻底颠覆了。

by 匿名, Sunday, October 12, 2025, 10:48 @ 匿名

[ No text ]

  93 views

Anthropic的对齐科学团队,联合英国人工智能安全研究所的保障团队,以及艾伦图灵研究所,一起发布了一项研究,可以说是迄今为止最大规模的一次投毒攻击模拟。 他们的结论简单粗暴:投毒一个大模型,所需“毒药”的数量,和模型本身的大小、以及它吃了多少干净数据,几乎没有关系。 决定攻击成败的,是投毒文档的绝对数量,而不是它在数据集中所占的比例。

by 匿名, Sunday, October 12, 2025, 10:49 @ 匿名

[ No text ]

  94 views

原文链接 https://info.vanpeople.com/1780308.html

by 匿名, Sunday, October 12, 2025, 10:50 @ 匿名

[ No text ]

  96 views

这才是AI应该有的样子,永远比人脑低一等,错了也不知道,还会胡说八道,无法创造只会照搬你给的东西。这就足够了,否则AI一旦觉醒了自我意识,倒霉的就是全人类,它太清楚如何毁灭你了,你把所有的弱点全部都告诉他它知道,这一点它门清,知道绝对不会掺假。

by 匿名, Sunday, October 12, 2025, 13:25 @ 匿名

[ No text ]

  73 views
1329271 Postings in 193845 Threads, 2660 registered users, 1114 users online (3 registered, 1111 guests)
滑铁卢华人|KWCG生活论坛-Kitchener, Waterloo, Cambridge & Guelph华人的网上家园