为生成式AI这匹“黑马”套上“缰绳”
分享至好友和朋友圈
用技术和法规防控伦理风险
为生成式AI这匹“黑马”套上“缰绳”
一方面,生成式AI固然便利了生产、生活,带动了社会的进步;另一方面,生成式AI可能会被人们无意滥用,甚至被目的不纯之人恶意利用,对社会造成危害。
——闫怀志北京理工大学网络与安全研究所所长
◎实习记者李诏宇
谈到AI领域的未来发展,就不得不提到生成式AI。如今,一经推出就迅速在各大社交媒体上走红的、由美国人工智能公司OpenAI发布的聊天机器人ChatGPT便是一种生成式AI。
近日,OpenAI又以“区分人工编写还是AI生成的文本”为目的,趁热打铁地推出了一款AI检测器。
滥用生成式AI可能带来哪些危害?AI检测器对于消除此种危害有何助益?如何利用包括AI检测器在内的多种手段,在推进生成式AI产业化的同时,促进生成式AI的规范使用?针对上述问题,科技日报记者采访了相关专家。
生成式AI是把双刃剑
“通常来说,生成式AI是指使用机器学习等各种AI算法,让人工智能能够利用数据进行学习,进而创建或生成全新的原创内容的一种技术。”北京理工大学网络与安全研究所所长闫怀志表示,“目前,生成式AI能生成文本、图像、音频、视频或代码等多模态的原创内容。”
ChatGPT作为一款人工智能技术驱动的自然语言处理工具,通过学习和理解人类的自然语言来进行对话,并能根据对话的上下文与人类进行相应的互动。与此前同类型的模型不同,ChatGPT不仅在对话的真实感与流畅性上取得了很大的提升,更在互动性上几乎“无出其右”。
以ChatGPT的横空出世为代表,生成式AI在技术上的不断突破,正驱动着全球生成式AI产业的加速发展。优秀的生成式AI有望成为新一代智能助手与信息检索工具,其不仅可以带动科技研发、工业设计等领域的深刻变革,还能在艺术和内容创作等的过程中减少以往调色、勾画轮廓等繁琐的程序性工作,极大地推动各类数字化内容的生产与创造。随着产业集群效应的进一步扩大,生成式AI正迅速成为全球科技领域最具投资价值的热门赛道,极大地影响了全球的科技创新与产业发展格局。
然而,随着生成式AI的爆火,其安全性也遭到了质疑。近日,一份关于ChatGPT的报告显示,在500名IT行业决策者中近一半的人认为,2023年内,将会出现个人恶意使用ChatGPT发动的网络攻击。无独有偶,此前的AI绘画等其他生成式AI同样遭受过相应的质疑。
“生成式AI是一个‘可怕的好东西’。”闫怀志表示,“一方面,生成式AI固然便利了生产、生活,带动了社会的进步;另一方面,生成式AI可能会被人们无意滥用,甚至被目的不纯之人恶意利用,对社会造成危害。”
闫怀志进一步解释道,生成式AI能够产出逼真的文本、图像、音频、视频等内容,可能会被滥用于诈骗、欺诈、剽窃、造谣、伪造身份等不当甚至违法的场景。
“以AI检测AI”避免技术滥用
ChatGPT不仅能像人一样进行聊天对话,它还能根据用户的要求作诗、编代码,甚至写论文。
正因如此,OpenAI近日还推出了AI检测器,其目的正是为了检测一段文本是否为AI生成,从而帮助人们更好地识别文本来源,避免AI文本生成器被滥用,造成一系列不好的影响。
“在很多场景下,对文本、图片等是否由AI生成进行识别是必要的。而这种识别所用到的检测工具,就是AI检测器。”闫怀志说,“AI检测器在技术架构上与生成式AI类似,以生成式AI创作的内容与非生成式AI创作的内容作为数据进行训练,通过大量的训练数据来‘培养’识别能力。”
这种“以AI检测AI”的方式,充分发挥了AI学习的优势。
闫怀志表示,通常来说,目前的AI检测器并不会给出是或否的精确判断,而是根据置信度给出“很有可能”“可能”“不清楚”“不太可能”“非常不可能”等模糊判断,将最终评判权交由人类自身。
然而,目前AI检测器的检测水平并不理想。闫怀志说:“OpenAI研发的AI检测器的检测成功率仅为26%左右,还处于较低水平。”
据悉,OpenAI推出的AI检测器能较轻松地区分单独的人工编写文本和AI生成文本。然而,当人工编写文本与AI生成文本混合在一起时,该检测器就难以进行准确识别了。
目前AI检测器的检测水平,显然无法有效解决滥用生成式AI带来的危害。“如果AI检测器的检测成功率能够得到较大提升,必将有助于解决目前使用生成式AI所带来的部分问题。但很显然,目前离达到这个目标,还有很长的路要走。”闫怀志表示。
多管齐下促进生成式AI健康发展
在享受生成式AI所带来的巨大利好的同时,我们应该采取措施来规范其使用,而这些措施里,既包括AI检测器在内的各类技术手段,也包括制定相关规范性的政策法规。
相关专家曾提出,生成式AI是由人类设计的。因此,人类也需要在生成式AI的程序中嵌入相应的限制手段,使它的行为以保障人类安全为底线。换句话说,就是要用优先级更高的技术规则去限制其他技术。
“ChatGPT规避技术伦理风险的方案大概就是遵循了这个思路。”思必驰科技股份有限公司联合创始人兼首席科学家、上海交通大学教授俞凯解释道,“人类通过对一些特定的问题进行优先判断,并以此构建具有约束力的模型,再让这个模型在ChatGPT的整个模型训练过程中发挥作用,以保证其回复符合人类伦理。此外,应该还有一些‘兜底技术’,让ChatGPT对于一些敏感问题不予回复。”
闫怀志表示:“除了这些技术手段外,我们还需要明确界定生成式AI的应用场景和使用范围,并在必要的情况下向人们告知哪些内容是通过生成式AI生成的。”通过相关的技术规范,界定生成式AI的应用场景和使用范围,有利于保障生成式AI遵循相应的技术伦理要求。
除此之外,相关政策、法律法规的制定,也正在推动着生成式AI产业的健康有序发展。
据悉,国务院于2017年发布了《新一代人工智能发展规划》,明确“初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。国家新一代人工智能治理专业委员会也相继于2019年和2021年发布了《新一代人工智能治理原则——发展负责任的人工智能》和《新一代人工智能伦理规范》。上述文件为我国目前生成式AI的发展提供了坚实的法律法规和标准保障。
“我们应该完善生成式AI的法律监管机制,坚持正义的普适价值标准、安全的核心价值目标、创新的根本目的,构建相应的伦理规范体系。”首都经济贸易大学法学院诉讼与司法制度研究中心主任陈磊表示,“具体说来,法律监管可分为事前、事中、事后三个阶段。事前应注意预防,投资者在研发生成式AI之前,应向有关部门提交申请书,将其人工智能的主要内容进行阐述和备案;事中须加强管控,在发现生成式AI侵犯他人著作权或者内容涉及伦理道德不当时,应当及时进行管控;事后要注意监督,对相关侵权行为及时进行处罚,保障他人合法权益。”
“可以想见,未来生成式AI技术与监管的博弈必将展开。”闫怀志表示。