最近有这样的新闻,也蛮搞笑的。据1月25日消息,俄罗斯联赛著名索契俱乐部透露了解雇前主帅罗伯托·莫雷诺的原因:因为他让AI干了自己的工作。这位西班牙队前主帅或许是第一个使用人工智能的人,令网络上人人羡慕。作为ChatGPT的忠实支持者,他让AI制定自己球队的训练计划并严格执行。 ChatGPT 要求选手在比赛前两天这样做,要求他们早上 5 点起床。米。他们将在早上7点训练ChatGPT 表示团队必须保持 28 小时清醒,所以也照做了。玩家们可能会感到困惑,但是他们在做什么呢?人工智能是人类被实验然后被奴役的集中营吗?即使涉及到招募球员等重要事情,罗伯特·莫雷诺也依靠人工智能来做出决策。结果,这位被ChatGPT选中的前锋在10场比赛中没有取得一个进球。前锋-深信人工智能的思维教练,在带领球队七场比赛只拿到一分后,也让球队陷入绝望。近年来,我们一直关注人工智能能做什么以及它将如何取代我们。结果,“人工智能太棒了”的想法已经变得司空见惯。事实上,有些人因为被人工智能取代而开始下岗。但另一方面,许多积极主动并相信人工智能能力的人也失去了工作。去年我参加大型模型研讨会时了解到,国内很多专业大模型应用场景中最重要的一点惊人的一致:聚焦合同和理赔。事实上,大规模的模式已经大大降低了很多法律职业的门槛。然而,如果你是一名法律专业人士,那么在使用人工智能时就应该小心了。 2023年,BBC报道了这样的事件。在纽约涉及航空公司的人身伤害案件中,原告律师受到处罚,涉案律师事务所承担连带责任。处罚的原因是你有30年的工作经验。这位资深律师要求ChatGPT准备诉状,可能是因为他认为这么简单的任务不值得自己做。于是,众所周知的大模型幻象被激活了。法官得出的结论是,原告律师提交的六项法院判决均被 AI 伪造,并且包含虚假或内部引用。第一次面对人工智能欺诈的法官一定会感到困惑。他认为,如果他只放入一个假案,那么六个案子都会是假的。这是技术的腐败还是法律的腐败?就看我能不能面对。结果,法律界后来认识到,无论行业多么严格,也没有什么能阻止专业人士想偷懒。利用AI产生投诉、引发幻觉的新闻越来越多大型模型。欧洲和美国的法律专家促进了情报的出现。类似的事件也在中国发生。北京律师协会明确要求法律文书由三级律师审阅,并标注“人工智能辅助生成,人工审核”。当你想到将被人工智能取代的工作时,首先想到的两种类型是设计师和程序员。然而,如果你从不同的角度来看,这两项工作也非常适合利用人工智能。作为前提,不要透露太多。去年,有一个案例,硅谷的一位高级程序员完全依赖 GitHub Copilot 进行代码生成,但意识到为自己使用 AI 是更好的选择,并且在他的权利范围内。最初,公司不想干涉程序员的哥哥,他已经年事已高,即将退休。结果,情况变得越来越糟,甚至到了他人格分裂的地步。lly拒绝参加任何工作。例如,你认为人工智能生成的代码存在错误,但为什么需要修复它?正如其他同事所说,这是你的责任吗?我哥哥说人工智能已经接管了我所有的工作。从逻辑上讲,可以说创建了一个闭合电路。我的工作完全基于AI,但我的哥哥PUA成为了我的下属,并且更换职位非常顺利。勒索新人努力工作,否则,人工智能将很快取代它的位置。当事情发展到这个地步时,你的老板可能很困惑。哦,人工智能可以取代新人,你也可以用人工智能来做你的工作。那么如果我们用人工智能代替它会发生什么呢?公司随后以“影响项目进度”和“造成情感伤害”为由解雇了他。无独有偶,去年我们采访了一位硅谷程序员。也许我们中国人就没有那么大的信心。你在默默地利用人工智能来为自己谋取利益。然后我在工作站喝咖啡并看电视w 或其他什么。然而这种神奇的生活并没有持续多久,公司发现了他并解雇了他。最后一个故事有点古怪和具体,但我认为有必要讲述一下。首先,需要一些背景知识。硅谷将在2025年经历大规模裁员,这也被称为人类历史上人工智能驱动的第一次大规模裁员。如果你看看被解雇的职位,你会发现被解雇最多的是产品经理,而不是程序员或设计师。例如,亚马逊宣布将从2025年10月开始裁员3万名新员工。其中,被裁减最多的职位是PM(产品经理),其次是TPM(技术项目经理)和SDM(软件开发经理)。需要与多个部门协商、以产品沟通能力驱动的岗位是AI转型的首要目标。大约在同一时间,我在贸易展上遇到了一位朋友,他的电子产品经验证实了作为产品经理的危险。他表示,他坚信人工智能技术,相信人工智能一定是未来。因此,作为 emsoftware dam 的产品经理,他是第一个建议公司一大群人需要进行人工智能转型的人。此后,他的老板非常重视,只听了他两次汇报。大老板是你的+3是的,我们不能天天沟通。因此,在那段时间,我坚信学习和理解人工智能会带来机遇。接下来发生了什么?我问。这位朋友有点失望。经过一番犹豫,他后来告诉我,我被解雇了,整个部门也被解雇了。我听说你们老板和股东、外部智库开过几次会,得出的结论是,AI时代最需要的是产品部门。未来的产品无疑将由人工智能而不是人类设计。所以他是被解雇了,但在他离开之前,老板让秘书送他一份礼物,说以后如果他有什么话要说,公司就不会忘记他。听到这个我很惊讶。这是我见过的最幽默、最黑暗的人工智能故事。合着人工智能是一个回旋镖,但它还会成功吗?我平静地告诉他,如果这样的公司离开,那也是一件幸事。有人说,什么都不相信,胜过什么书都没有,所以现在相信人工智能可能是不可能的。毫无疑问,人工智能充满想象力,其能力和效果正在信息领域得到体现。但当你在工作中真正把手从方向盘上拿开并让人工智能为你驾驶时,你经常会经历这样的过程:第一步是,“哦,这真的有效,开始驾驶吧。”第二步是AI可以开车,那你不妨小睡一下。第三步,车子就会崩溃。 AI没有你漂亮想象。如果你盲目相信这一点,你往往会像一个足球教练一样忽视人工智能所犯的错误。这就像一个著名的程序员忽视了与团队的合作和对人的尊重。或者就像一个产品经理的老板被人工智能这个词愚弄了,不明白这个世界是怎么回事。关键是人工智能不对其所犯的错误负责。最终,人类要承担后果。如果让我从这些故事中总结出一件事,可能就是这句话:“信任是21世纪人类最伟大的美德。”作为人类,在人工智能时代保持竞争力可能更容易。我们只需要找到一家我们可以信任的公司,只要我们足够信任他们。
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(含图片及视频(如有)由网易号用户上传和发布,网易号是一个仅提供信息存储服务的社交媒体平台。