经济导报记者 王伟
世界人工智能大会刚刚过去,“人形机器人的法治与伦理”是这届大会的主题。在人工智能赛道成为科技竞争新高地、未来产业新引擎的当下,人工智能商业化落地对监管机制、隐私保护、数据安全、技术控制等提出了一系列法治和伦理挑战。人工智能虽然前景广阔,但安全是关键,还需要良法善治。
无论人工智能是否有实体形态,都是基于大模型的智能能力,通过不同的应用方式发挥作用,并基于感知、交互、运动能力上的差异性,来处理不同类型的任务。因此,对大模型及具身智能的治理原则上是共通的,都需要良法善治和规则创新。
近年来,人工智能技术的不断突破给人们的生产生活带来了极大的便利,同时也衍生出超越以往范畴的安全问题。例如,人形机器人的外形与人类相近,在应用场景中如何降低人类对机器人的反感和恐惧情绪?由人形机器人造成的经济损失如何归责,是机器人本身、制造商、用户还是编程者?自动驾驶过程中出现的安全问题,该如何追责?
事实上,人工智能的安全问题已不是新话题。早在2018年,中国提出要加强人工智能发展的潜在风险研判和防范,确保人工智能安全、可靠、可控。此后,就人工智能安全治理问题,中国先后提出了《中国关于加强人工智能伦理治理的立场文件》《全球人工智能治理倡议》等一系列文件倡议;就加强人工智能的监管,中国正式施行《生成式人工智能服务管理暂行办法》。此次世界人工智能大会上,《人形机器人治理导则》正式发布,这是业界首个以开放签署方式发布的人形机器人治理规则文件。
人工智能落地应用性高,不同的落地场景有独特的行业特点,需要以包容审慎的态度,制定出符合实践情况和推动发展的法律法规,才能确保人工智能的健康发展。应加快制定促进人工智能发展为主的法律,关注和解决人工智能在解决问题过程中制造出来的新的问题。加强对人工智能等新业态新领域知识产权的司法保护,维护创新主体合法权益,服务未来产业健康发展。
在通往人工智能时代的路上,除了大胆创新,还要确保人工智能不要走向失控。人工智能良法善治,方能前景可期。