临近夏天尾声,接二连三的台风和暴雨,全港多区大规模水浸、山泥倾泻和道路坍塌,狼狈之情罕见。突如其来的挑战再次提醒大家,防患未然是化解危机的最佳策略,尤其是对一些不断变化的新事物——如足以颠覆世界的生成式人工智慧(生成式AI),大家喜迎潜在发展机遇的同时,也非常关注其所衍生的一连串安全、监管和政策问题,如何营造一种既包容又兼顾安全和发展的环境是全球面对的一项大挑战。
生成式AI误变诱骗工具
由ChatGPT引发生成式AI热潮起,不少专家已关注其所衍生关于资讯保安、私隐保护、伦理道德及智识产权等问题,主要是担心随着新技术向各行各业渗透,给人类带来的福祉和风险会同步放大。因为早在ChatGPT推出之前,已经有研究揭示了一些大模型内部的行为异常,包括生成有害内容,强化偏见和传播虚假资讯。ChatGPT令大语言模型变得普遍,但目前其思考过程不透明,人类对它的推理过程并不完全掌握,机器生成的文本可能会制造出更多错误和虚假信息,存在伦理失範及行为失控的风险。
此外,输入到生成式AI工具中的资讯可以成为其训练集的一部分,这意味着敏感或机密资讯最终可能会输出给其他用户。生成式AI工具亦有机会在不事先通知的情况下,与第三方(如供应商或服务提供者)共用使用者资讯,这有可能违反许多司法管辖区的隐私法;而使用这些工具的用户亦可能因使用了输出结果,无意中侵犯了其他使用者的私隐和知识产权。
更值得关注的是,骇客也在测试新技术,目前已发生了一些恶意软体和勒索软体代码的例子,都是通过诱骗AI生成的。还有“及时注入”攻击,诱骗生成式AI工具洩露它们不应该洩露的资讯,这导致了高级网络钓鱼攻击的工业化,构成重大网络安全隐患。
继今年3月逾千名人工智能领域的专家联署,呼吁各大人工智能实验室暂停开发比GPT-4更强大的人工智能系统至少6个月。5月时,再有逾350名从事AI工作的科学家与科技巨擘高层,在美国人工智能安全中心网站联署,促请各国关注AI对人类带来的潜在威胁。他们担心AI可被武器化或生成错误讯息去左右意识形态,有机会破坏社会稳定。
中国、欧盟和美国都加快了对AI的监管和立法进程。中国网信办早于4月提出利用生成式AI产品向公众提供服务前,应当向国家网信部门申报安全评估,并履行演算法备案和变更、登出备案手续,还需要向相关部门申报安全评估。科技部亦提出了人工智能企业,应该接受科技伦理审查,并由审查主体设立科技伦理(审查)委员会。
8月15日实施的《生成式人工智能服务管理暂行办法》,从生成式AI服务提供者的演算法设计与备案、训练数据、模型,到用户隐私、商业秘密的保护,监督检查和法律责任等方面都作出了规范。同时鼓励生成式AI基础设施和公共训练数据资源平台建设,促进算力资源协同共用;并推动公共数据分类分级有序开放,扩展高质量的公共训练数据资源。
香港需要急起直追
针对生成内容的真实性问题,新例要求服务提供者采取有效措施,提升生成式AI服务的透明度,提高生成内容的准确性和可靠性。另外,也有专门针对个人隐私、商业秘密等保护的规范,例如参与生成式AI服务安全评估和监督检查的相关机构和人员,对在履行职责中知悉的国家秘密、商业秘密、个人隐私和个人资讯应当依法予以保密,不得洩露或者非法向他人提供等。还特别提及,须采取有效措施防范未成年人用户过度依赖或者沉迷生成式AI服务。
各国监管机构相继采取行动,以努力平衡科技发展及其带来的新挑战,足证这是一个必须及正视的问题。但香港作为重要的国际金融中心、贸易中心,也正在加大对数位技术的投入和布局,最新的财政预算案亦拨款研究筹建自己的超算中心,却至今仍未就监管AI技术表态,确实有必要急起直追。
技术创新中从来有很多不确定性,有的问题在发展中出现,需要边发展边解决,但更加多是可以预判在前,就必须防患于未然,否则在这场极速发展的AI竞赛中就可能失去先机。当然业界更期待各国在国家层面制订相关条例之余,也能考虑国际合作或拟定国际或地区通用的条例,通过技术与法制相辅为生成式AI服务的健康发展提供法制框架,减少研发者及相关企业需要像环球製药业般每一个国家或地区去申请的苦恼。