欢迎您访问科普小知识本站旨在为大家提供日常生活中常见的科普小知识,以及科普文章!
您现在的位置是:首页  > 科普文章

AI算法复制人类大脑功能?AI正通过三种方式欺骗你

科普小知识2022-01-04 22:26:14
...

针对人工智能算法的网络攻击的消息不再罕见,现在几乎每天都有。研究人员发现,无论是在实验室环境还是在实践中,该算法都非常脆弱。在许多头条新闻中,我们看到人脸识别系统可能被特殊眼镜和黑客操纵的医疗应用欺骗,例如人工智能癌症诊断系统。

人工智能的进步、新神经网络的形成以及神经科学中新模型的出现,都表明我们正在接近人工智能算法可以复制大脑功能的现实。虽然这些技术远非完美,但人工智能和人脑有许多惊人的相似之处,尤其是在图像处理技术方面。

最近,科学家发现黑客不仅可以对神经网络发起对抗性攻击,还可以对人类发起类似的攻击。通过一些操作,他们成功地修改了狗的形象,使人们认为它是一只猫。然后,科学家改变了蛇的形象,使它看起来像蜘蛛,反之亦然。

这项研究引起我注意的原因是它提供了一个很好的例子。我们可以把它付诸实践,并检查在各种情况下作弊的可能性。这促使我做了一个实验来调查人们对这些照片的反应,尤其是那些患有蜘蛛恐惧症的人。喜欢蛇的人(他们也非常害怕蜘蛛)看到蜘蛛变成蛇的画面会感到不舒服。

然而,当他们意识到照片中的对象确实是一只蜘蛛时,他们的不安变成了恐惧。这些实验表明,这种类型的对抗性攻击可以在潜意识中发挥作用。换句话说,有人没有意识到图片有什么问题,就像算法不能识别攻击一样。

因此,当涉及到对抗攻击和网络安全时,我们必须考虑到,即使是人类的眼睛,一个复杂的器官和长期进化的产物,也无法抵御这种攻击。从这个意义上说,很容易看出对感官的攻击可以与对算法的攻击相提并论。

尽管神经语言程序设计(NLP)尚未被科学证明,但对语言或其他感官的对抗性攻击可能与这一领域有关。事实上,对人工智能的隐私攻击可以被视为真正的医学或催眠。让我们研究以下人工智能欺骗人脑的例子:

潜意识感知广告

深度学习模型可以通过大量的图像数据集来训练,从而根据照片来识别一个人的信任度。使用人工智能进行对抗攻击可以创建任何人最“可靠”的照片,并提高观众的信任度。

我们只需要改变一张照片,这样它就能激发信任。它可以用在广告中,因为照片的快速调整,你会更容易吸引顾客!

使用音频

现在,让我们来看看音频信息和语音感知的过程。当我们听到一个词时,没有上下文我们无法解释它的意思,我们经常在心里猜测。当我们听到一个句子的结尾时,我们的大脑会固定信息并推断出一个单词的最终含义。这种机制类似于递归神经网络中基于注意的模型。

在我们解密信息之前,所有没有上下文的意义都会在某种程度上被潜意识处理,这将对我们的思维产生轻微的影响。如果人脑能够识别由多义词组成的句子的不同可能的含义,人们就能在没有注意的情况下接收到平行的甚至是矛盾的命令。庞大的数据集可以使这一过程自动化,并生成具有双重含义的文本。

人工智能支持的测谎仪

让我再举一个例子——隐私攻击,就是试图暴露某人的隐藏信息。在交流中,人们倾向于使用面部表情、身体姿势、手势和眼睛来推断意思。肢体语言常常能明示或暗示地揭示说话者的心理状态、情感和感受。事实上,有许多类似的隐藏数据泄漏通道,如体温、瞳孔大小、辐射水平或人体呼吸的化学成分。

如果有人建造了一个能捕捉所有这些隐藏通道的精确装置,他们就能读出人类对外部刺激的反应,比如图像和挑衅性的问题。这类似于对神经网络的隐私攻击,攻击者通过测试不同的输入数据来获取信息。

自我保护措施

对人类的无意识攻击,比如我提到的例子,通常是可怕的。最糟糕的是,它们不是想象的,可以在任何时候实现。有了这些建议,您就可以武装自己,抵御这些攻击:

-仔细检查您使用的媒体中的所有关键信息,并反复查看您发送的信息;

-学习心理学和大脑如何工作,然后将这些知识应用于你每天看到的视觉刺激。

-不要在社交媒体上发布太多不必要的个人信息。你当然不希望额外的数据为黑客提供有针对性的信息。

如果我们能戴上特殊的眼镜或助听器来保护我们自己在未来免受音频或视频网络攻击,我不会感到惊讶。但在此之前,使用这些策略,尽可能多地了解人工智能及其可耻的用例是非常重要的,这样才能确保自己和公司的安全。请记住,只要你对这些应用有更多的了解,你就会比那些没有相同知识的人有更大的优势。