科技日报实习记者 林雨晨
近日,国家网信办发布了《生成式人工智能(AI)服务管理办法(征求意见稿)》,针对面向中国境内公众提供服务的生成式人工智能产品,包括其研发及服务,向社会公开征求管理意见。
生成式AI正是当前以ChatGPT等智能聊天机器人为代表的技术。自去年11月ChatGPT发布以来,其展示的与人类高度相似的对话能力引发全球关注。然而,在人们乐此不疲地实验和讨论ChatGPT的强大功能,并由此感叹其是否可能取代人类劳动时,人们是否思考过AI生成内容的可靠性?
亦真亦假的“AI幻觉”
美国OpenAI公司发布ChatGPT时声明,由于所使用的训练数据及训练方法的原因,ChatGPT有时会写出听起来很有道理但不正确或毫无意义的回答。
对此,南京大学AI学院越南籍副教授阮锦绣提到了“AI幻觉”的概念:“目前最突出的问题之一,是我们很难控制ChatGPT的输出,它不能被完全信任。AI提供的答案可能听起来很正确,很流畅,但实际上是不正确的。”
AI幻觉指的是AI的一种自信反应。当模型有“幻觉”(输出欺骗性数据的倾向)时,其使用的训练数据并不能证明输出的合理性。AI幻觉的一个危险之处在于,模型的输出看起来是正确的,而本质上是错误的。
“长此以往,这种微妙的错误信息可能会导致很多社会影响,比如改变对是非的看法。”阮锦绣表示。
AI应用前景非常广阔
尽管今天的AI存在诸多问题,但在应用领域,其仍具备巨大的发展潜力。
天津大学生物工程教授刘秀云表示,该校早在2018年就已经开设了我国第一个智能医学专业。5年之后,中国开设智能医学专业的院校数量已经达到几十个。“我相信新专业的设立会推动AI技术的发展……在过去的几十年里,AI在医药领域获得了广泛的应用。有些人正在使用虚拟现实和增强现实技术来改善医生和病人之间的沟通。AI也可用于药物研发,由此节省大量的资金成本。”
北京科技大学智能科学与技术学院巴基斯坦籍教师阿力夫表示,AI已融入生活的方方面面,如人脸识别、智能家居或语音助手等。AI是未来,因为现在这个专业以及这项技术是每个人都想了解的,每个人都想使用这项技术。
谈及AI在教育领域的应用,阮锦绣表示,人工智能可当成写作助手来使用,“我们或许没有办法完全禁用ChatGPT,因为学生总会找到一些方法去访问它。我们可以此设计一些测试,让学生与ChatGPT就某些话题进行辩论。学生必须找出ChatGPT提供答案的错误之处。在这样的练习过程中,他们可培养批判性思维,质疑机器的回答是对还是错,学生们由此可意识到,不是所有看到的信息都值得相信。”
当前的AI难以取代人类
“人类对这个世界拥有大量的常识性知识,包括物体的物理属性、社会规范和文化背景知识,这对推理和决策至关重要,开发能够积累并使用常识性知识的AI仍是一个重大挑战。”阿力夫说,目前的AI系统可能是不透明的,了解它们如何作出特定决定,或如何诊断它们在推理过程中的错误十分困难。
浙江大学计算机辅助设计和计算机图像专业博士生李志男对此表达了类似观点,“我不相信ChatGPT是一场技术上的革命,或是自然语言处理领域的技术革命……很多技术和算法在此之前就已被发明和应用了,如各类语言模型、神经机器翻译和命名实体识别等。”
“ChatGPT的创新之处在于其大规模和效率。它采用了大规模的预训练语言模型并结合多类型技术和算法来达到比之前更好的效果。”李志男说,他希望未来的人工智能有推理的能力,“我不知道它是否能达到这个水平,但这是一个令人兴奋的研究领域,它有可能彻底改变我们生活。”
刘秀云则指出,在医药领域,使用AI取代人类的工作会引发一系列的伦理问题:比如,在医药领域,如果出现了事故,谁应该承担责任?是AI还是医生?另外,也存在数据安全问题,如何确保AI保存并安全地使用数据?人们如何使用AI技术提高医疗和诊断的准确性?这些都是AI在医疗领域的应用中所面临的问题。
AI可能在很多领域比人类都强,但它永远不可能拥有像人类一样的文明。阿力夫表示,人类的情感系统有一些独特的东西,如想象力、同理心、善良、勇气和团队精神,这些比人类的知识和技能以及科学技术更加重要,这些是AI无法企及的。