ChatGPT与GPT-4的一炮而红,重新点燃了业界对人工智能的热情。ChatPGT的能力已经毋庸置疑,而最新推出的GPT-4更是突破了大众对AI技术的想象边界。
今天,我们更想与大家聊的是,随着AI的能力越来越强大,人类应该如何与AI相处,让AI技术服务于我们的工作与生活,防范技术滥用的风险。
自适应AI的崛起与伦理风险
自适应AI,指的是通过反复训练模型,并在运行和开发环境中使用新的数据进行学习,迅速适应在最初开发过程中无法预见的现实变化的智能系统。自适应AI最显著的特点是它能够根据实时反馈,动态调整其学习过程和学习目标。
一图看懂什么是自适应AI
自适应AI系统拥有广泛的应用空间。在程序开发领域,由GitHub与OpenAI(ChatGPT开发者)合作开发的Copilot就是一个典型例子。它能够协助程序员在一些特定的开发环境当中,进行代码注释、可运行代码转换、自动补全代码块与重复代码。GitHub 的研究报告称,随着训练次数的增加,其代码正确率会不断提升。
无论是Copilot还是最新亮相的GPT-4,自适应AI的意义在于降低编程的技术门槛的同时,进一步提升了编程效率。可以预见的是,更多的企业将依靠自适应AI系统来提升效率,适应市场变化。然而,人类的监管措施还无法跟上AI的进步速度,与技术进步相伴的是AI伦理风险。
中国电子标准技术化研究院的报告指出,AI的伦理风险具有独特性。其一,与个人切身利益密切相关,如果将算法应用在犯罪评估、信用贷款、雇佣评估等关切人身利益的场合,一旦产生歧视,必将系统性地危害个人权益。其二,引发算法歧视的原因通常难以确定,连设计者可能都不知道算法如何决策,在系统中发现存在歧视和歧视根源更加困难。其三,人工智能在企业决策中的应用愈发广泛,而资本的逐利本性更容易导致公众权益受到侵害。
好在事态已经发生改变,越来越多的利益相关者正在推动保护性政策,以堵上AI的伦理漏洞。例如,欧盟正在制定“AI责任指令”,要求企业对其部署的AI技术造成的任何损害负责。监管力度的加强将会要求企业对于AI模型的部署与管理更加自律,更加严肃地应对AI的伦理风险。