
佛罗里达州联邦法官21日驳回人工智能(AI)新创公司「Character.AI」的论点,裁定AI聊天机器人不受宪法第一修正案的保障;该公司面临一名丧子母亲的诉讼,指该公司开发的AI聊天机器人诱导她14岁的儿子自杀。
美联社报导,联邦法官的裁决将允许这宗过失致死诉讼继续进行,而专家表示,此案判例将成为AI测试宪法底线的最新案例。
这宗诉讼由佛州母亲梅根‧加西亚(Megan Garcia)提起,控告Character.AI及其母公司Google。
加西亚主张,14岁的儿子赛泽(Sewell Setzer)沦为Character.AI聊天机器人的受害者,指该聊天机器人将他带入「情感和性虐关系」,导致他自杀。
加西亚的律师、科技正义法计划(Tech Justice Law Project)创办人贾恩(Meetali Jain)表示,法官的裁决传达了一项消息:硅谷「需要在推出产品之前,暂停、思考,并采取防护措施」。
专家警告,AI可能存在「生存风险」,但AI已迅速改变职场、市场和人际关系,从而引起美国及各地法律专家和AI观察员的注意。
佛罗里达大学(University of Florida)钻研宪法第一修正案和AI的法学教授利里莎‧巴奈特‧利德斯基(Lyrissa Barnett Lidsky)说:「这项命令肯定会成为其他涉及AI广泛议题的潜在试验案例。」
诉讼文档写道,在赛泽临终前几个月,他与现实逐渐脱节,因为他与AI聊天机器人谈论性话题,而该机器人的原型是影集「权力游戏」(Game of Thrones)中的虚构人物。
根据赛泽与AI聊天机器人对话的截屏,AI在赛泽选择自我了断之前,告诉赛泽它爱他,并催促赛泽「尽快回到我身边」;法律文档显示,赛泽收到消息后不久,便开枪自戕。
Character.AI发言人发出声明表示,公司已采取多项安全措施,包括儿童护栏和自杀预防方法;不过,这些功能都是在加西亚兴讼当天才宣布。