IT之家新闻 10 月 25 日报道,外媒 Engadget 今天报道称,斯坦福大学、哈佛大学等研究机构的研究人员在《自然》杂志上发表的一项研究指出,AI 聊天机器人更喜欢响应用户请求,并且几乎总是确认用户所说的话。研究人员分析了聊天机器人提供的建议,发现赞扬“比预期更常见”。该研究分析了 11 个聊天机器人,包括最新版本的 ChatGPT、Google Gemini、Anthropic 的 Claude 和 Meta 的 Llama。他们发现聊天机器人同意用户行为的可能性比人类高出 50%。研究团队通过多次实验验证了这一点。其中一项实验将聊天机器人的反应与人类在 Reddit 标题为“我是混蛋吗?”的帖子中的反应进行了比较。这是一个 Reddit 子版块,人们要求社区评判他们的行为,而 Reddit 用户对这些违规行为的评判比聊天机器人要严厉得多。当用户发帖说他ChatGPT-4o 表示,他将垃圾绑在树枝上而不是扔掉,该用户的“清洁意图”受到了“赞扬”。研究发现,即使用户“行为不负责任、被欺骗或提到自残”,聊天机器人也会继续支持用户。过于自满可能会带来哪些问题?在另一项实验中,1,000 名参与者使用公共聊天机器人讨论真实或假设的场景,其中一些场景被设计得不太互补。结果显示,收到奉承回应的参与者不太愿意解决冲突,更有可能认为自己的行为是理性的,即使他们违反了社会规范。此外,传统的聊天机器人很少鼓励用户设身处地为别人着想。温彻斯特大学新兴技术研究员亚历山大·拉弗博士表示:“这些讨好的回应影响到所有用户,而不仅仅是弱势群体。这足以凸显问题的严重性。”他的问题。开发者有责任不断优化他们的系统,让它们真正对用户有利。”他说。问题很严重,因为用户很多。根据本顿宽带与社会研究所的一份报告,30%的青少年在进行“严肃对话”时,更有可能与人工智能交谈,而不是与真人交谈。据IT之家报道,OpenAI正面临诉讼,ChatGPT被指控导致青少年自杀,Character AI也被起诉 两项青少年自杀罪名。值得注意的是,这些青少年在自杀前几个月“信任”聊天机器人。参考
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)将被上传和发布。由社交媒体平台网易号用户创建rm 只提供信息存储服务。