苏黎世大学的麻烦,使用AI机器人未经同意来塑造和操纵Reddit用户的思维
苏黎世大学的研究人员在未经其同意的情况下对reddit用户进行心理实验可能会面临法律麻烦。这项研究是在Subreddit R/ChangemyView的四个月内使用人工智能生成的评论进行的,以观察大型语言模型(LLMS)是否可以影响用户的意见。
根据发表的Reddit线程,有380万名成员的SubReddit CMV主持人将研究描述为无疑参与者的“心理操纵”。国防部说,研究人员部署了具有捏造身份的AI机器人,以在几个线程下发布有说服力的答复。
“这些AI生成的反应不仅在没有披露的情况下制定了,而且作为真实的,生活的经验而呈现,主持人在公开帖子中写道。嘿,包括性侵犯幸存者等角色,专门从事虐待的创伤顾问以及反对黑人生活问题的黑人。”
AI机器人6次可能会改变用户的意见
社交媒体chat不休,由X帐户领导,致力于讨论有关Reddit的意见,称为“ Reddit Lies”,争论机器人本来可以使用错误的信息来改变红色的想法。该帐户声称,AI LLM说服社区的可能性是基线的六倍。
“令人震惊的是,超过100多名授予这些用户的“ deltas”的红色人士,这表明AI产生的论点改变了主意,”抗议Reddit在其X线上。
破裂:自2024年11月以来,苏黎世大学一直在使用AI机器人秘密操纵红色机器人。
最恐怖的部分?
机器人通常通过利用错误信息来改变红色的想法的可能性是基线的6倍。
更多以下
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。





