人工智(zhì)能(Artificial Intelligence,AI)发轫于(yú)20世纪50年代,至(zhì)今已经历(lì)了三次发展浪潮,不(bú)管(guǎn)是实验室阶(jiē)段还是大规模(mó)产业化阶(jiē)段,研究者们(men)几十年如(rú)一(yī)日不(bú)变(biàn)的都是(shì)推(tuī)进其(qí)技术的进(jìn)步,希望机器真的(de)有一天(tiān)能具有一般人类智(zhì)慧,执行全方位的人类认知能力。
近(jìn)年来(lái),为了(le)让(ràng)AI更加健康发展,有(yǒu)一项技术领域正在(zài)成为产业界和学术(shù)界研(yán)究的重点:可信AI,即(jí)将人类社会(huì)的(de)正面价值观(guān),通(tōng)过技术赋予到(dào)人工(gōng)智能上,包(bāo)括可(kě)解释、公平性、隐私(sī)保护和公平性。
从学(xué)术研究层面来说,可信AI主要(yào)是(shì)针对算法和系(xì)统(tǒng)层面的(de)研(yán)究,包括安全性(xìng)/鲁棒性、可解释性、隐(yǐn)私性、公平(píng)性、可审计性/问责性、环境保护。可解释性包括学习(xí)方法或模型(xíng)的理论可解释、算法可解释、行为可解释;鲁(lǔ)棒性主要针对模型(xíng)稳定性研究、攻击模(mó)型和防守模型;隐私(sī)保护指的(de)是攻击与保护方法直接(jiē)的博弈,如(rú)差分隐私、多(duō)中心(xīn)联邦学习;公平(píng)性针对的是各种数据、模型的偏置研究,平等和公(gōng)正的平衡;而环保指的(de)是(shì)寻求高能效策略,更高能效的计算硬(yìng)件。
与可(kě)信AI学术研究不同,企业更多是针对(duì)当下的问(wèn)题,提出解决方案。如(rú)2015年,蚂蚁集团启动基于“端特征”的手(shǒu)机丢失风险研究(jiū)项目,旨在用AI技术保护用(yòng)户的隐(yǐn)私安(ān)全。为了解决了AI中(zhōng)的公(gōng)平性(xìng)(Fairness),IBM于2018年开发了多个AI可(kě)信工具,在AI系统中采用不带(dài)偏见的数据(jù)集和模型,从而避免对特定群体的不公平。产业界对可信AI的应(yīng)用加更加(jiā)苛刻(kè),容错(cuò)率更(gèng)高。很多可信AI白(bái)皮书提到,可信(xìn)AI真正落地起来,需(xū)要放到生产(chǎn)流程里面(miàn),让其成为一种机制,发(fā)挥技术的约束作用。
青年学生是(shì)重要的技术人才储(chǔ)备。对(duì)于研(yán)究可信AI的青年学生来(lái)说,对从事可信(xìn)AI怎(zěn)么准备,在他们现在的学习和生(shēng)活中,就应了解学术的前沿,以及业界最新技术趋势,思考哪些技术可以应用到哪些问(wèn)题上(shàng),主动观察了解所处(chù)的世界,以及业界的需求痛点和技(jì)术(shù)瓶颈。比如,最近一档可信AI实战科技真人秀,就联动了(le)全国一些顶尖(jiān)高校(xiào),通过可信AI在工业(yè)界“科技反诈(zhà)”当中的应用(yòng),还原了(le)可信AI技(jì)术在实际应用中的能力,把学术界和产(chǎn)业界正在做(zuò)的事,通(tōng)过大家都能理解的形式打通起(qǐ)来(lái),让技术从业者、技术(shù)研究者都深(shēn)度参与其中(zhōng)。
做AI研究,“复(fù)杂度”是一个(gè)关键词(cí)。环境(jìng)复杂度、任务复(fù)杂度、系(xì)统复杂(zá)度决定了AI的水平。对(duì)它的研究可以揭(jiē)示AI产生原理(lǐ),也(yě)可以(yǐ)回答AI的终(zhōng)极问题(tí),即对人类命运的最终影(yǐng)响。未来可信AI研究,也要从复杂度(dù)分析来(lái)看AI为人类带来的价值,更需要(yào)学界和产业界共同努(nǔ)力来推(tuī)动(dòng)。