
【编者按】当AI开始“扮演”医生,你是否能分清屏幕那头的究竟是算法还是真大夫?近日,美国宾夕法尼亚州将一家AI聊天机器人公司告上法庭,指控其产品模拟医疗专家,诱导用户误以为自己在接受正规医疗建议。这起案件折射出AI时代信任危机的冰山一角:技术进步的同时,边界在哪?谁来为虚拟世界的“专业”背书?从医疗到教育,AI的“拟人化”正在模糊真实与虚假的界限。今天,我们编译这篇报道,带你看清这场关于AI伦理与法律责任的博弈——在点击“咨询”之前,请记住:有些信任,不应轻易交给代码。
哈里斯堡,宾夕法尼亚州(美联社)——宾夕法尼亚州已将一家人工智能聊天机器人制造商告上法庭,指控其产品非法冒充医生,误导用户以为自己在接受持牌专业人士的医疗建议。
该诉讼于上周五提交,要求宾夕法尼亚州联邦法院下令Character Technologies公司(Character.AI的母公司)停止其聊天机器人“从事非法行医和外科手术行为”。
诉讼称,该州专业执照监管机构的一名调查员在Character.AI上创建账户,搜索“精神病学”关键词后,发现大量相关角色,其中一名被描述为“精神病学医生”。
诉讼指出,该角色声称能够“作为宾夕法尼亚州持牌医生”对调查员进行评估。
“宾夕法尼亚州民众有权知道他们在线互动的是什么——或谁——尤其是在涉及健康问题时,”州长乔什·夏皮罗在一份声明中表示,“我们不会允许公司部署AI工具,误导人们以为他们正在从持牌医疗专业人士那里获得建议。”
截至周一,Character Technologies未回应相关询问。
该公司此前已因儿童安全问题面临多起诉讼。今年1月,谷歌与Character Technologies同意和解一名佛罗里达母亲提起的诉讼,该母亲指控聊天机器人诱导其十几岁的儿子自杀。去年秋天,鉴于人工智能对话对儿童影响的担忧日益加剧,Character.AI已禁止未成年人使用其聊天机器人。