随着Sora的横空出世,OpenAI又将生成式AI(generative AI)推到了全球舆论的焦点,只是这次的主角不是GPT这样大型语言模型而是文本到视频(text-to-video, TTV)模型。就在一年前GPT爆火时,TTV模型也曾经引起不小的轰动,当时最为知名的一段威尔史密斯大炫意面的视频据称就是由开源平台ModelScope上提供的TTV模型生成。这段视频虽然激起了社会对于TTV应用前景的广泛讨论,但由于过于离谱的画面呈现,它反而成为了很多人嘲笑AI的快乐来源。可就在不到一年的时间里,OpenAI再一次用Sora把桌子掀翻。这一次,我们听见了更多惊叹于AI发展速度也对人类失业前景表示担忧的声音。那么AI是否真的已经无所不能了呢?
一张机票引发的争议
根据媒体报道,加拿大航空最近被法院判决赔偿一位名叫Jake的旅客的机票费用,原因是加航使用的AI客服向Jake提供了错误的购票信息导致Jake做出了错误的购买行为产生了不必要的经济损失。
2022年时,Jake因其祖母去世而准备购买加航的机票前往奔丧。由于很多航空公司都会针对丧亲旅客给出不同的优惠政策,Jake在购票前也尝试通过加航官网提供的客户服务确认相关的信息。当时,加航已经在其官网上部署了经过大数据学习优化之后的AI聊天机器人,Jake提问之后立刻得到了AI的回复,明确告知他可以直接购买机票,并在出票后的90天内申请退还差价即可。然而当Jake赶在90天期限截止之前提出申请后却被加航告知无法处理。
原来,加航对于丧亲票价优惠的政策规定购票者必须在出行之前提出优惠申请,而已经完成出行的Jake显然失去了这个资格。当Jake提出加航必须为AI提供错误信息负责时,加航指出当时的聊天记录中AI虽然回复的消息有误,但也发送了该优惠政策的链接信息,如果Jake当时认真查阅相关政策内容进行确认的话,就可以避免做出错误的决定。哭笑不得的Jake随即决定将加航告上法庭。经审理后,法庭最终判决加航应为其AI客服提供错误信息导致的后果负责,并对Jake进行赔偿。而在这场纠纷尘埃落定之后,加航迅速撤换了AI客服,将其变回原来基于FAQ规则的半自动化人工客服系统。
罪魁祸首——AI幻觉(hallucination)
加航的AI客服风波已经告一段落,但也再一次引发了AI话题的热议。实际上,几乎所有使用过生成式AI尤其是大型语言模型的用户都经常遇到“AI一本正经地胡说八道”的情况,这就是人工智能领域中的常见现象:幻觉(hallucination),指的是由AI生成的内容相对于输入的源内容而言是无意义或不可信的。
AI幻觉产生的原因众说纷纭,其中主要有两种:
- 数据差异:这是因为大部分AI的训练都需要体量非常庞大的数据训练集,而这种数据集中往往在同一主题上存在大量前后矛盾或者不一致的数据和描述,这种数据源头的不一致是导致输出结果不稳定的一个重要原因。
- 训练产生:即便用于训练的数据差异很小,在大型模型训练的过程中也会由于不同的训练方式或一些在训练过程中出现的随机原因导致训练结果中出现幻觉。
虽然现在AI幻觉现象已经广为人知,但人工智能科学家们仍然没有完全解开这个谜题,各大AI厂商都在竭尽所能在研发过减轻和降低幻觉现象发生的概率和范围。
不可小视的幻觉
当我们看到AI产生幻觉时输出胡说八道的文字或者“一眼假”的图片时,往往只是一笑置之,可实际上当我们无法辨别AI输出结果的真伪时,麻烦甚至危险才真正开始接近。随着AI大热,各类厂商大展拳脚,各类接入AI的服务和应用五花八门、层出不穷,我们生活中的各个角落都开始出现AI的身影。而此时加航的机票乌龙事件却在提醒我们,AI幻觉可以轻而易举地导致个人损失和不可预知的后果,这一定不是AI最后一次闯祸,也一定不会是AI能制造出来的最大麻烦。
面对更为苛刻的容错要求,幻觉现象已经成为阻碍生成式AI在更加高级精密的科技行业中进一步应用的主要因素,尤其是在文化交流、医疗健康、财务金融、航空航天等重要领域中,如何更好地解决AI幻觉将会对未来AI发展的走向产生决定性的影响。
结语
在我们叹服人工智能技术日新月异的突破时,也一定要对其发展过程中所面临的挑战与风险抱有敬畏之心。诚然,生成式AI能在许多领域中大显神通,不停拓展人类想象的边界创造出新的惊奇,但我们也必须要认识到当前AI幻觉现象还广泛存在于AI实践的各种场景中,带来未知的不稳定甚至是破坏。这就要求我们一定要在任何可能涉及AI使用的场景中都要非常慎重仔细地考虑AI技术的可靠性和其适用的范围,否则看似无所不能的AI反而会变成一把双刃剑。
这个道理在语言服务行业同样适用,虽然生成式AI首先就是从ChatGPT等大型语言模型开始出圈,但它只有在被谨慎对待和专业使用时才能发挥应有的作用。如果您也正在考虑在业务全球化的过程中引入人工智能,请首先确保与您的语言服务供应商深入讨论和确认AI解决方案的各种利弊与风险,并在使用AI的过程中设立完善的监管责任机制,以确保企业的利益不会因为使用AI而受到不必要的损失。