pp电子(中国游)官方在线平台







咨询热线:021-80392549

pp电子(中国游)官方在线平台 QQ在线 pp电子(中国游)官方在线平台 企业微信
pp电子(中国游)官方在线平台
pp电子(中国游)官方在线平台 资讯 > 人工智能 > 正(zhèng)文(wén)

涉及(jí)高层(céng)次(cì)伦理问题(tí)的三(sān)项人(rén)工(gōng)智能标准

2020/05/19雷锋网284

涉及高层次(cì)伦理问(wèn)题(tí)的(de)三(sān)项人工智能标(biāo)准

IEEE(美国电气和电子(zǐ)工程(chéng)师(shī)协会)最新宣布了三项新的人(rén)工智能发展标准。IEEE 号称(chēng)为“世界上最大的先进技术专业组织”。根据(jù)最(zuì)近发布的一份报告,他们的人(rén)工智能标(biāo)准将优先考虑人类,因为他们承诺要跟上AI领域(yù)不断发展的脚步。

在发布(bù)的《合乎伦(lún)理的(de)设计:将(jiāng)人类福祉与人工智能和自主系统优(yōu)先考(kǎo)虑的愿景》报告中,共分为(wéi)八个部部分阐述了新(xīn)的人工智能发展问题(tí)。分别是:一般(bān)原则,人(rén)工智能系统赋值;指(zhǐ)导伦理学(xué)研究和设计的方法学;通用人(rén)工智(zhì)能和超级人工智(zhì)能的安(ān)全与福祉;个人数(shù)据和(hé)个人访问(wèn)控制;重(chóng)新构造自动武器系统;经济/人道主义(yì)问题(tí);法(fǎ)律。

一般原则涉及高层次伦理问题(tí),适用于所(suǒ)有(yǒu)类型的人工智能和(hé)自主系统。在确定一般原则(zé)时,主要考虑(lǜ)三大因素:体现人权;优先考虑最(zuì)大化(huà)对人类和自然环境(jìng)的好处;削弱人工智(zhì)能的(de)风险和负面影响。

人类利益(yì)原(yuán)则要求考虑(lǜ)如何确保AI不侵犯(fàn)人权。责任原(yuán)则涉及如何确保(bǎo)AI是可以被问(wèn)责的。为了解决过错问题,避免公众困惑,AI系(xì)统必须在(zài)程序层面具有可责性,证(zhèng)明其为什么以(yǐ)特定方式(shì)运作。透明性原(yuán)则意味着自主系统的运(yùn)作必须是透明的。AI是透明的意味(wèi)着人们(men)能(néng)够(gòu)发现(xiàn)其如何以及(jí)为(wéi)何做(zuò)出特(tè)定决定。

涉及高层(céng)次伦(lún)理问题的(de)三项人工智能标准

在关于如何将人类规范(fàn)和(hé)道德价值观嵌入AI系统中,报告(gào)中表示(shì)由于AI系统在做决定、操(cāo)纵其所处环境等(děng)方面(miàn)越来越(yuè)具有自主性,让其(qí)采纳、学习(xí)并(bìng)遵守其所服(fú)务的社会(huì)和(hé)团体的(de)规范和价值(zhí)是至关重(chóng)要的。可以分三步(bù)来实现将价值(zhí)嵌入AI系统(tǒng)的(de)目的(de):第(dì)一(yī),识别特定社会(huì)或团体的规范和(hé)价值;第二(èr),将(jiāng)这些规范和(hé)价(jià)值编写进AI系统;第三,评(píng)估(gū)被写进(jìn)AI系(xì)统的规范和价值的有效性,即(jí)其(qí)是否和现实的规范和价(jià)值相(xiàng)一致、相兼容。

虽(suī)然上述(shù)的相关研究一直在持续,这些研究领域包括机器道德(Machine Morality)、机器伦理(lǐ)学(Machine Ethics)、道(dào)德机器(Moral Machine)、价值一致论(Value Alignment)、人工道德(Artificial Morality)、安全AI、友好(hǎo)AI等,但开发(fā)能够意识到并(bìng)理解人类规范和价值的(de)计算机系统,并让其在做决策时考虑这些问题,一(yī)直困扰(rǎo)着人们(men)。当前主要(yào)存在两种(zhǒng)路径:自(zì)上(shàng)而下的路径和自下而上的路径。这(zhè)一(yī)领域的研究(jiū)需要(yào)加强。

报告中还指(zhǐ)出(chū)需要指导伦理研究和(hé)设计的方法论,通用人工智(zhì)能和超级人工智能的安全与福祉,重构自主武器(qì)系统,以及经济/人道主义问题等八个人工智能发展(zhǎn)面临(lín)的问题。报告中收集(jí)了超过一百位来自人工智能(néng)领域(yù)学术界,科学界,以(yǐ)及(jí)政府相关部门的思想领袖的意见,整合(hé)了(le)人工智能、伦理学、哲学和政策等多个领域专业知识。它的修订版(bǎn)EAD(Ethically Aligned Design) 版(bǎn)本将会在2017年底(dǐ)推(tuī)出,报告增至为十三个章(zhāng)节,含(hán)二百五(wǔ)十(shí)多个(gè)全球思想领袖的精(jīng)华分享。

IEEE 机器(qì)人和自动化协会的主席Satoshi Tadokoro 解(jiě)释了他们为什么想要制(zhì)定这样(yàng)的(de)标准(zhǔn):“机器人和自动系统将为社会带来重大创新。最近,公众越来越关注可能发生的社会问题,以及可能(néng)产生的巨大潜(qián)在利益。不幸(xìng)的是,在这些讨论中,可能会出现一些(xiē)来自虚构和想(xiǎng)象的(de)错误信息。”

Tadokoro 继续说道(dào):“IEEE 将基于科(kē)学(xué)和技术的公认(rèn)事实来引入知识和智慧,以帮助达成公共决策(cè),使人类的整(zhěng)体利益最大化。”除了AI伦理标准(zhǔn)外,还有其他两个人工智能标准也被引入报(bào)告中(zhōng),每个项目(mù)都由(yóu)领域专家领导。

第(dì)一个(gè)标(biāo)准是:“机器(qì)化系(xì)统、智能系统和自动系(xì)统的伦(lún)理(lǐ)推(tuī)动标准(zhǔn)”。这个标准探讨了“推(tuī)动”,在人(rén)工智能世界里(lǐ),它指的是AI会影响人类行为的微(wēi)妙(miào)行动。第二(èr)个标准是“自动和半自(zì)动(dòng)系统的故(gù)障安全设(shè)计标准”。它包含了自(zì)动技术,如果它(tā)们发生(shēng)故(gù)障,可(kě)能会对人类造成危害(hài)。就目前(qián)而言,最明显的问题是自(zì)动(dòng)驾驶(shǐ)汽车。第三个标(biāo)准是“道德化的人工智能(néng)和自动系(xì)统(tǒng)的福祉衡量标准(zhǔn)”。它(tā)阐(chǎn)述了进步的人工智能技(jì)术如何有益于人类的益处(chù)。

这些(xiē)标准的实施可能比(bǐ)我(wǒ)们想象的要早(zǎo),因为像 OpenAI 和 DeepMind 这样的公司(sī)越来(lái)越快(kuài)地推进人(rén)工智能的发(fā)展,甚至创造出能够自我学(xué)习(xí)又扩大“智(zhì)能(néng)”领域(yù)的人工智能系统。专家(jiā)们认为,这样(yàng)的人工智能会破(pò)坏世界稳定,导致大规模的(de)失业和战争,甚(shèn)至转向创造“杀人武器”。最近,联合国的(de)重(chóng)要(yào)讨论(lùn)促使人们开始认真思考,需对将人工智能技术当作武器使用进行(háng)更严格(gé)的监管。

关(guān)键词: 人(rén)工智能




AI人(rén)工(gōng)智能网声明:

凡资讯(xùn)来源注明为其他媒体来源的信息,均(jun1)为转载自其他媒体(tǐ),并不(bú)代表本网站赞同其观点,也不代(dài)表本网(wǎng)站对其真实性负责。您(nín)若(ruò)对该文章内容(róng)有任何疑问或(huò)质疑,请(qǐng)立(lì)即与网(wǎng)站(www.longnan.14842.xinxiang.zz.pingliang.ww38.viennacitytours.com)联系,本网站将迅速(sù)给(gěi)您回应并做(zuò)处理(lǐ)。


联系电(diàn)话:021-31666777   新(xīn)闻、技术文章投稿(gǎo)QQ:3267146135   投稿邮箱:syy@gongboshi.com

精选资讯更多(duō)

相关资讯(xùn)更多

热门搜(sōu)索

工博士人(rén)工(gōng)智能(néng)网
pp电子(中国游)官方在线平台
扫(sǎo)描二维(wéi)码关注微信
扫(sǎo)码(mǎ)反馈

扫一扫(sǎo),反馈当前页面(miàn)

咨询反馈
扫码关注

微(wēi)信(xìn)公众号

返回顶部

pp电子(中国游)官方在线平台

pp电子(中国游)官方在线平台