24小(xiǎo)时联系電(diàn)话:18217114652、13661815404
中文(wén)
- 您当前的位置:
- 首页>
- 電(diàn)子资讯>
- 行业资讯>
- 人工智能(néng)和监管——工...
行业资讯
人工智能(néng)和监管——工程师需要注意什么
人工智能(néng)和监管——工程师需要注意什么
在过去的十年中,人工智能(néng)经历了突飞猛进的发展,现在发现自己在许多(duō)日常应用(yòng)中,包括网站流量管理(lǐ)、广告和预测性维护。从道德的角度来看,人工智能(néng)会带来哪些挑战,欧盟将出台哪些立法,以及工程师為(wèi)什么要谨慎对待人工智能(néng)?
AI 带来了哪些挑战?
世界各地的一些关键人物(wù)表达了他(tā)们对人工智能(néng)的担忧,并讲述了人工智能(néng)将如何以类似于终结者的方式征服人类的故事。然而,事实是,人工智能(néng)不太可(kě)能(néng)以灭绝人类的单一目的以虐待狂杀手的方式行事。但这并不是说人工智能(néng)不会带来挑战,如果不加以控制,它可(kě)能(néng)会横行无忌。
有(yǒu) 人工智能(néng)的许多(duō)方面都带来了工程方面的挑战、隐私和道德观点。除非社區(qū)能(néng)够齐心协力解决这些问题,否则世界各地的政府可(kě)能(néng)会开始监管人工智能(néng)并可(kě)能(néng)阻碍其进步。
首先,人工智能(néng)面临的更大挑战之一是它在决定个人命运方面的用(yòng)途。人工智能(néng)可(kě)以很(hěn)容易地用(yòng)于预测个人的行為(wèi),并使用(yòng)这些结果来确定信用(yòng)评级和保险费。尽管如此,此类决定可(kě)能(néng)会改变个人的生活。因此,有(yǒu)人可(kě)能(néng)会争辩说,人工智能(néng)缺乏同情心和人性会导致仅基于预测的不公平判断。然而,反驳是人工智能(néng)无法區(qū)分(fēn),因為(wèi)人工智能(néng)从根本上无法持有(yǒu)意见(即它只是从提供给它的数据中學(xué)习)。
AI 面临的另一大挑战是从隐私的角度来看。人工智能(néng)要提高其执行任務(wù)的能(néng)力,就需要数据。当涉及到人工智能(néng)用(yòng)于营销和广告时,此类数据将采用(yòng)姓名、年龄、性别和國(guó)籍等个人信息的形式。但是,收集大量此类数据实际上使每个用(yòng)户都有(yǒu)可(kě)能(néng)侵犯隐私。未经用(yòng)户许可(kě),这些数据可(kě)能(néng)会被出售给第三方或被恶意活动窃取。
然而,人工智能(néng)变得非常成问题的地方是 当局描述公民(mín)和限制个人自由. 这方面的主要例子是中國(guó)政府部署人工智能(néng)来跟踪每个公民(mín),并根据这些人对执政党的忠诚度给他(tā)们一个社会信用(yòng)评分(fēn)。社会信用(yòng)低的人不得乘坐(zuò)飞机、火車(chē)等公共交通工具,社会信用(yòng)分(fēn)数极低的人被公开羞辱,与个人為(wèi)朋友的人则被警告不要靠近。
欧盟将很(hěn)快引入人工智能(néng)立法
最近,欧盟一直表示有(yǒu)兴趣引入人工智能(néng)监管,以防止人工智能(néng)被用(yòng)于可(kě)能(néng)侵犯个人自由和隐私的高风险类别。根据欧盟公布的信息,人工智能(néng)的使用(yòng)将属于三类之一;不可(kě)接受的风险、高风险和有(yǒu)限风险。
不可(kě)接受的风险是涉及潜意识和操纵性消息传递、当局使用(yòng)的实时生物(wù)识别以及任何社交评分(fēn)系统的应用(yòng)程序。欧盟打算彻底禁止这些领域使用(yòng)人工智能(néng)和任何相关工具。
高风险是对个人用(yòng)于信贷和其他(tā)金融服務(wù)进行排名的应用(yòng)程序。例如,使用(yòng)人工智能(néng)挑选候选人的招聘工具被认為(wèi)是一种高风险的应用(yòng)程序。此类别还包括用(yòng)于非公共场所身份识别的生物(wù)识别系统以及用(yòng)于司法行政的任何系统。
最后一类 本质上包括另一个 AI 应用(yòng)程序这被认為(wèi)对社会、数据和权利的影响最小(xiǎo)。此类应用(yòng)包括 AI 聊天机器人、垃圾邮件过滤器、视频游戏中的 AI 和库存管理(lǐ)。
為(wèi)什么工程师要小(xiǎo)心人工智能(néng)?
毫无疑问,人工智能(néng)已被证明是 用(yòng)于预测分(fēn)析和数据管理(lǐ)的宝贵工具. 尽管如此,仍有(yǒu)越来越多(duō)的应用(yòng)程序出于不道德和恶意的原因继续滥用(yòng)人工智能(néng)的力量。
如前所述,人工智能(néng)在中國(guó)社会信用(yòng)體(tǐ)系中的使用(yòng)是人工智能(néng)如何被可(kě)怕滥用(yòng)的一个典型例子。让社会信用(yòng)體(tǐ)系变得更糟的是,人工智能(néng)和视觉技术的广泛使用(yòng)是自我完善的,这意味着社会信用(yòng)體(tǐ)系使用(yòng)的时间越長(cháng),人工智能(néng)就会变得越好。因此,使用(yòng)一种在西方看不到的不道德技术现在正在推动中國(guó)人工智能(néng)技术遠(yuǎn)遠(yuǎn)超出西方的能(néng)力。
出奇, 人工智能(néng)可(kě)以实现到大多(duō)数应用(yòng)程序中,正是这一事实使其成為(wèi)工程师的诱人工具。人工智能(néng)可(kě)以随着时间的推移进行训练,而不是描述系统可(kě)以做出的每一个可(kě)能(néng)的决定,这可(kě)以说是一项更容易的任務(wù)。
然而,仅仅因為(wèi)一个 AI可(kě)以完成任務(wù)并不意味着它应该. 这可(kě)以通过使用(yòng)跟踪系统、生物(wù)特征数据收集和其他(tā)不必要的应用(yòng)程序来清楚地看到,这些应用(yòng)程序為(wèi)了使用(yòng)人工智能(néng)而收集个人数据。例如,一家公司可(kě)以使用(yòng)人工智能(néng)系统让员工基于面部识别进入建筑物(wù)。尽管如此,钥匙卡可(kě)以完成相同的任務(wù),而无需存储个人信息。
如果工程师在使用(yòng) AI 时不小(xiǎo)心进行自我调节,那么世界各地的政府可(kě)能(néng)会开始出台法律法规,使开发 AI 变得更加困难。工程师最不需要的就是繁文(wén)缛节,所以不要陷入物(wù)联网兴起期间行业陷入的陷阱。