发展人工智能技术规矩不可少
最近,两起与人工智能技术应用相关的事件引起了社会的广泛关注。第一个是视频编辑软件,可以在社交媒体上浏览屏幕。该软件可以方便快捷地将视频中的人物替换成用户上传的任何人的面孔。事实上,这种视频变脸很早以前就可以通过专业的视频编辑软件实现,但需要用户具备相应的技术,而且过程复杂。现在,人工智能技术简化并加速了这一复杂的工艺过程,普通人可以很容易地控制它。第二张是学生课堂行为分析的图片。人工智能技术统计显示学生的行为,如抬头、看手机、低头、记笔记、打瞌睡等。
变脸的应用需要我们在两个方面保持警惕:第一,这项技术对社会信息传播秩序的影响。传统上,视频对信息的保真度高于文字和图片。视频能够相对准确地传递信息,是社会信息传输系统中的重要媒体符号。这种易于获取和简单的变脸应用程序,如果被滥用,将不可避免地导致通信秩序的混乱。第二,这种应用软件收集的人脸信息的合法性、安全性和可靠性受到质疑。人脸、虹膜和指纹等生物识别信息是重要的个人隐私信息。这种信息比地址、密码和其他类型的信息重要得多。地址和密码可以修改,面部特征、指纹和其他生物信息对生命来说是独一无二的,不能更改。后果的严重性怎么强调都不为过。如果这种信息一旦被披露,就无法检索,技术开发人员对此也无能为力,无论是技术开发人员的主观滥用、黑客攻击还是无意披露,都很难检索。现在刷面已经广泛应用于金融支付、交通运输、公共安全等领域。面部生物信息的泄露给整个社会系统带来了不可估量的影响。
利用人工智能对学生课堂行为进行定量分析的问题在于:首先,该技术对学生行为分析的准确性、可靠性和可信度产生了怀疑。人工智能毕竟是一种算法。它现在能做的是捕捉个人的行动轨迹,它没有能力准确地判断和识别人类丰富而复杂的社会行为及其发生的场景。这也是一个意义可能有很大不同的行动。技术可以检测到学生低头写作,但无论他们写的是课堂内容还是无关信息,显然都超出了高级人工智能的判断范围。人工智能可以准确识别学生是否在场,但对课堂上如此复杂丰富的人类行为场景进行绝对定量分析是不可靠的。其次,即使它在技术上是可靠的,也有人怀疑以这种量化的方式管理学生课堂学习行为的道德合法性。我们说教育以人为本,因材施教,人不是机器,学生的行为不能完全数字化管理,技术不能奴役人。
这两件事反映了人工智能技术的迅速发展和广泛应用。然而,似乎我们的社会作为一个整体仍然需要加深对这一技术的理解,并且还没有准备好应对它带来的风险和挑战。
就认知而言,人工智能技术可以高效、有效地解决许多领域的问题,但必须避免所有问题都被人工智能解决。人工智能能有效地解决机械的、枯燥的、大量的数据和简单重复的问题,但它缺乏人情味和人性。因此,在需要体现人类精神、兴趣、想象力和人性的工作中,它必须由人来完成,而不能由技术来解决。技术不是一切。
人工智能技术治理的关键是掌握三个核心关键问题:算法、数据和计算能力。*应该在算法和数据方面进行立法和监督。确保算法的开放性、透明性和可监控性。在数据方面,我们将加强对相关技术产品使用的数据类型和规模的监管。应当对涉及人的面部特征信息、指纹、血液等方面的人体生物特征信息制定严格的标准,从采集、传输和存储等方面进行监管,以确保涉及个人安全和国家安全的信息不被滥用,并且是安全可控的。数据应用的用户规模应该与企业的安全能力相匹配。此外,在涉及重要领域和广泛人群的技术应用中,有必要建立与医学研究的伦理评价环节相类似的人工智能使用伦理和安全评价机制,以确保技术发展的正确方向和合理使用。建立第三方专业组织,监督人工智能技术应用的安全性、可靠性和可控性。
企业应落实主体责任。在技术发展过程中,人工智能发展的基本原则是:公平、可靠和安全、隐私和安全、包容、透明和负责,以确保技术的可靠性、合法性和符合人类伦理规范。企业应意识到底线,不违反相关法律法规,遵循基本社会价值观和公共道德,并承担相应的社会责任。在每一个软件分发平台中,都要严格检查应用程序的权限,以确保用户下载的应用程序的安全性和可靠性。
就用户而言,我们应该提高公众的技术使用质量,培养正确理解和合理使用技术的能力。在人工智能技术的应用场景中,还需要考虑用户的选择,包括是否以及在何种程度上使用人工智能技术。
作为一项革命性的新技术,人工智能无法准确预测该技术的未来结果。过去,我们在互联网治理中遵循“先发展后治理”的理念。人工智能技术已被广泛应用于各种行业,其算法不透明,结果隐藏。其治理与发展同步,应坚持“边治理边发展”的理念。最后,人工智能技术将更好地服务于人类社会的发展。(作者张建军,天津师范大学新闻与传播学院教师)
推荐阅读