欢迎您访问科普小知识本站旨在为大家提供日常生活中常见的科普小知识,以及科普文章!
您现在的位置是:首页  > 科普文章

别“炼”出*的AI

科普小知识2022-01-18 07:50:42
...

一次抢劫后,格雷的妻子被杀,她瘫痪了。他接受了一位天才科学家的“升级”改造治疗——人工智能程序STEM被植入他的体内,他获得了超强的能力,直接从“残疾”升级为职业杀手。随着干细胞的进化和升级,格雷*交出使用身体的权利和控制思想的权利...

别“炼”出*的AI

今年关于人工智能和人类未来的最佳影片被许多人认为是“升级版”。然而,关于人工智能与人类竞争的讨论是科幻电影中一个永恒的话题。从《银翼杀手》到《玛吉吉》,再到今年的低成本电影《升级》,它反映了人工智能对人类未来的威胁。

黑色产业对正规产业的恶意源于人类基因。

人工智能反叛在科幻电影中太常见了。问题是现实中真正的人工智能似乎正一步步向我们走来。许多人有忧虑和焦虑。人工智能会“作恶”吗?

有不少人倾向于人工智能威胁理论。马斯克曾在推特上说:“我们需要非常小心人工智能,它可能比核武器更危险。”斯蒂芬·霍金也说:“人工智能可能是一个“真正的危险”。机器人可能会找到改进自己的方法,而这些改进并不总是有益于人类。”

“任何技术都是一把双刃剑,可以用来作恶。为什么人工智能会引起如此大的反响?”在最近的2018年中国计算机大会分论坛上,哈尔滨工业大学的吴教授提出了一个问题:人工智能研究的底线是什么?

早在1942年,阿西莫夫就提出了机器人的三大定律。但问题是,科幻小说中的这些奇妙的定律在实施中会遇到很大的问题。

"什么样的程序在计算机中运行取决于是谁写的."360集团技术总裁兼首席安全官谭表示,机器人的法则是否可靠,首先要由人来定义,然后由机器来存储和执行。

值得注意的是,“不作恶”已经成为科技行业的一项技术原则。那么,当机器人作恶时,它从哪里来?

人工智能的发展现在正如火如荼。首先接受人工智能的是黑色生产集团,包括突破验证码和用人工智能方法黑进一些账户。谭笑着说:“2016年,中国的黑色生产收入已经超过1000亿元。整个黑色生产超过了我们的收入。它怎么会没有动机呢?”

"人工智能邪恶的本质是人类在作恶."北京大学法学院教授张平认为人工智能只是一种工具。如果有人利用人工智能犯罪,他们应该惩罚人工智能背后的人,如人工智能研究人员、控制者、所有者或用户。当人工智能显示出危害人类、公共利益和市场规则的“邪恶”行为时,法律就会出来加以规范。

目前,由无人驾驶和机器人手术引起的事故,以及大数据分析的扩散和失控经常被听到。那么,人工智能会超越人类的控制而进化吗?当人工智能作恶时,人类还能应付吗?

任务驱动人工智能不能犯“反人类罪”

值得注意的是,霍金在他的最后一本书中警告人类,“人工智能的短期影响取决于谁控制它,而长期影响取决于它是否能被控制。”这意味着人工智能的真正风险不是恶意,而是能力。

“人工智能的未来发展将威胁人类的生存。这并非没有根据。确实存在巨大的风险。尽管这不一定会发生,但发生的可能性很大。”在谭看来,人类不会被毁灭。不管人工智能如何发展,总会有漏洞。黑客会找到一种方法在极端情况下彻底摧毁这个系统。

上海交通大学电子系的特别研究员倪冰冰对此持乐观态度。“我们目前的大多数人工智能技术是任务驱动的,人工智能功能的输出和输入是由研究人员和工程师预先确定的。”倪冰冰解释说,绝大多数人工智能技术远非反人类能力,至少目前没有必要担心。

张平说,当人工智能发展到强大的人工智能阶段时,机器自动化的能力得到了提高。它可以自己学习和升级,而且它会有非常强大的功能。当人脑和计算机无与伦比时,如此强大的人工智能将对我们构成威胁。

“对人类来说,向人工智能注入智慧和价值观是非常重要的,但如果人工智能达到了人类无法控制的最高邪恶水平——“反人类罪”,就必须按照现行人类法律来处理。”张平说,除了法律之外,还应该有一个机制来“执行”这种人工智能,以便及时制止对人类造成的更大伤害。“这要求在人工智能的研发中必须考虑‘一触式瘫痪’技术。如果这种技术不能被预设,这种人工智能应该停止投资和研发,像人类治疗药物一样受到全球谴责。”

跟上犯罪记录增长的预防机制

事实上,人们的担忧并非空穴来风。人工智能犯罪事件,如工作场所偏见、政治操纵、种族歧视等,早在两年前就开始出现。此前,德国也发生过一次人工智能机器人在装配线上杀死一名经理的事件。

可以预见,人工智能犯罪的数量将日益增加。人类应该如何应对?

“如果我们将人工智能用作工具或产品,法律上应该有预防功能。科学家应该从道德约束和技术标准的角度来干预价值观。”张平强调,研究人员不应该向人工智能灌输错误的价值观。毕竟,技术的发展总是受制于发展先于法律的约束。

在倪炳兵看来,目前人工智能算法和技术都是由人类控制的。我们总是有一些强有力的控制措施。控制人工智能不会对人类产生负面影响。“如果没有这样的操纵或后门,这意味着人工智能不是在作恶,而是发明人工智能工具的人在作恶。”

每种技术都有两个方面。为什么我们认为人工智能的邪恶会让人更害怕?与会专家直言不讳地表示,由于人工智能是不可控的,人们对不可控事物的恐惧在黑盒的情况下更强烈。

目前最流行的领域——“深度学习”就是这样,被专业人士戏称为“当代炼金术”。他们输入各种数据来训练人工智能,并“提炼”一堆我们不知道为什么的东西。人类能信任他们无法理解的决策对象吗?

显然,技术发展的界限需要明确,比尔·盖茨也表示了关注。他认为,在现阶段,人类不仅应该进一步发展人工智能技术,还应该开始应对人工智能带来的风险。然而,“这些人中的大多数没有研究人工智能的风险,但是正在加速人工智能的发展。”

行业专家呼吁我们清楚地知道人工智能将做出什么样的决策,并对人工智能的应用范围和应用结果加以限制。

人工智能会发展吗?将来会形成一个人工智能社会吗?“人工智能可能会争夺资源来毁灭人类,这是完全可能的,所以我们仍然应该关注人工智能邪恶的程度和风险。”现场的一位嘉宾建议,根据人工智能的不同阶段,如智力迟钝、强智能和超智能,我们应该明确哪些人工智能应该研究,哪些应该认真研究,哪些不应该研究。

如何防止人工智能在快速发展的道路上徘徊?"我们应该从技术、法律、道德和自律上加以防范."张平说,人工智能的研究和开发应该首先考虑道德约束,当人类无法预见其后果时,研究和开发应该谨慎。与此同时,仍然需要法律监管,如共同建立一个国际秩序,就像原子弹一样,不能让它无限期地发展。