财联社5月8日讯(编辑 黄君芝)自人工智能(AI)爆火全球以来,尽管带来了许多便利和机会,但也平添了不少担忧。例如,网络安全专家们就担心,AI生成的内容有可能扭曲我们对现实的看法。而且在关键的选举年中,这种担忧更令人不安。

但思科Talos安全情报与研究小组的技术主管Martin Lee并不这么认为,他觉得深度伪造技术(Deepfake)构成的威胁可能被“夸大了”。据悉,在思科有一支名叫“Talos”的安全研究团队,由大约250名安全研究人员与600名软件工程师组成。

Lee指出,新的生成式人工智能工具确实“有可能使虚假内容的生成变得更容易”,深度伪造本身也是一项强大的技术,但是是有缺陷的:AI生成的材料通常会包含明显的可识别特征,表明它不是由真人制作的。

尤其是视觉内容,已被证明容易受到影响。例如,人工智能生成的图像可能包含视觉异常,例如一个人有两只以上的手,或者一个肢体被合并到图像的背景中。

另一方面,用AI合成的语音音频和真人的语音片段之间进行分辨可能会比较困难。但专家们表示,人工智能的水平仍然取决于它的训练数据。

但Lee表示,客观地看,机器生成的内容通常可以被检测到。

目前威胁不大

美国云端运算和企业软体公司Appian的首席执行官Matt Calkins表示,人工智能“用处有限”。该公司帮助企业更容易地利用软件工具制作应用程序。他认为,今天的许多生成式人工智能工具可能很“无聊”。

他指出,真正的问题在于“我们愿意信任人工智能,让它了解我们自己”。他警告说,这可能会使它在未来成为一个更有效、更危险的虚假信息工具。他还说,他对美国在监管这项技术方面取得的进展感到不满。

他补充说,可能需要人工智能制造出一些极其“冒犯”的东西,美国立法者才会采取行动。他说,“给我们一年时间,等到人工智能冒犯了我们再说吧。然后也许我们会做出正确的决定。”

不过,无论人工智能有多先进,思科的Lee表示,还是有一些经过验证的方法可以发现错误信息的,无论这些信息是机器还是人类制造的。

友情提示

本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!

联系邮箱:1042463605@qq.com