老板们很难监管员工对人工智能的使用
2025-09-01 06:16

老板们很难监管员工对人工智能的使用

  

  今年9月,当马特在一家制药公司开始新工作时,他得到了一只秘密的援助之手。

  这位27岁的研究人员要求使用假名,通过使用OpenAI的ChatGPT来编写工作所需的代码,他能够跟上更有经验的同事的步伐。

  “部分原因纯粹是懒惰。部分原因是我真心相信它能让我的工作做得更好、更准确。”

  马特仍然不确定这是否被允许。他的老板没有明确禁止他使用ChatGPT等生成式人工智能工具,但他们也没有鼓励他这样做,也没有就该技术的适当用途制定任何具体指导方针。

  “我看不出这有什么问题,但我仍然感到尴尬,”他说。“我不想承认自己走了捷径。”

  随着员工采用生成式人工智能的速度远远快于公司政策制定的速度,雇主们一直在争先恐后地跟上步伐。圣路易斯联邦储备银行(Federal Reserve Bank of St Louis) 8月份进行的一项调查发现,近四分之一的美国劳动力每周都在使用这项技术,在软件和金融行业,这一比例上升了近50%。这些用户中的大多数都转向ChatGPT之类的工具来帮助写作和研究,通常作为谷歌的替代品,以及将其用作翻译工具或编码助手。

  但研究人员警告称,这种早期采用在很大程度上是在暗中进行的,因为员工在缺乏明确的企业指导方针、全面培训或网络安全保护的情况下,自己摸索道路。截至9月,在ChatGPT推出近两年后,接受美国就业律师事务所Littler调查的高管中,只有不到一半的人表示,他们的组织制定了有关员工应如何使用生成式人工智能的规定。

  在少数实施了具体政策的公司中,许多雇主的第一反应是全面禁止。据《财富》杂志报道,苹果、三星、高盛和美国银行等公司在2023年禁止员工使用ChatGPT,主要是出于数据隐私方面的考虑。但随着人工智能模型变得越来越流行、越来越强大,并且越来越被视为在拥挤的行业中保持竞争力的关键,商业领袖们开始相信,这种禁止性政策不是一个可持续的解决方案。

  美国零售商沃尔玛(Walmart)首席信息安全官杰里?盖斯勒(Jerry Geisler)表示:“我们从‘屏蔽’开始,但我们不想保持‘屏蔽’。”“我们只需要给自己时间来营造一个内部环境,给人们一个选择。”

  沃尔玛更希望员工使用其内部系统——包括一个名为“我的助手”的人工智能聊天机器人,用于内部安全使用——但并不禁止员工使用外部平台,只要他们的提示中不包含任何私人或专有信息。不过,该公司安装了监控员工在公司设备上向外部聊天机器人提交请求的系统。安全团队的成员将拦截不可接受的行为,并“与该员工进行实时接触”,盖斯勒说。

  他认为,制定一项“非惩罚性”政策是跟上不断变化的人工智能格局的最佳选择。“我们不想让他们认为他们遇到了麻烦,因为安全部门已经联系了他们。我们只想说:‘嘿,我们观察到了这种活动。帮助我们了解您想要做的事情,我们可能会为您提供更好的资源,以降低风险,但仍允许您实现目标。’我想说,当我们进行这些接触时,我们看到的累犯几乎为零。”

  沃尔玛并不是唯一一家开发盖斯勒所谓的“内部封闭游乐场”,供员工试验生成式人工智能的公司。在其他大公司中,麦肯锡(McKinsey)推出了一款名为Lilli的聊天机器人,年利达(metalaters)推出了一款名为Laila的聊天机器人,摩根大通(JPMorgan Chase)推出了一款名称不那么有创意的LLM Suite。

  没有资源开发自己的工具的公司面临着更多的问题——从为员工采购哪些服务(如果有的话),到越来越依赖外部平台的风险。

  通信机构GingerMay的创始人兼首席执行官维多利亚?亚瑟(Victoria Usher)表示,她一直在努力保持一种“谨慎的态度”,同时也摆脱了ChatGPT于2022年11月到来所引发的“最初下意识的恐慌”。

  GingerMay一开始是全面禁止的,但在过去的一年里开始放松这一政策。员工现在可以将生成式人工智能用于内部目的,但必须得到高管的明确许可。员工必须使用公司订阅的ChatGPT Pro才能访问生成式人工智能。

  亚瑟说:“最糟糕的情况是,人们使用自己的ChatGPT账户,而你失去了对账户内容的控制。

  她承认,她目前要求员工每次使用生成式人工智能都要获得批准的方法可能无法持续,因为这项技术已经成为人们工作流程中更成熟的一部分。她说:“我们真的很高兴不断改变我们的政策。”

  即使采用更宽松的策略,私下使用人工智能来加速工作的员工可能也不愿意分享他们学到的东西。

  “他们看起来像天才。他们不想让自己看起来不像天才,”宾夕法尼亚大学沃顿商学院(University of Pennsylvania’s Wharton School)管理学教授伊森?莫里克(Ethan Mollick)表示。

  职场即时通讯服务Slack上月发布的一份报告发现,近一半的办公室工作人员不愿意告诉经理他们使用了生成式人工智能——这主要是因为,像马特一样,他们不希望被视为无能或懒惰,或者冒着被指控作弊的风险。

  接受Slack调查的员工还表示,他们担心,如果老板知道使用人工智能提高了生产率,他们将面临裁员,而那些在未来裁员中幸存下来的人,只会被交给更繁重的工作量。

  盖斯勒预计,他将不得不不断审视沃尔玛在人工智能方面的做法。他说:“我们早期的一些政策已经需要更新,以反映技术的发展。”

  他还指出,作为一家大型全球性组织,沃尔玛面临着制定适用于许多不同类型工人的政策的挑战。他表示:“关于我们将如何使用这项技术,我们希望与高管、法律团队和商户分享的信息,与在配送中心或门店工作的人分享的信息截然不同。”

  不断变化的法律环境也可能使企业难以实施人工智能的长期战略。美国、欧盟(EU)和英国等地区正在制定相关立法,但对于该技术将如何影响知识产权,或是否符合现有的数据隐私和透明度法规,企业仍然没有多少答案。霍根路伟律师事务所(Hogan Lovells)的就业律师米歇尔?罗伯茨?冈萨雷斯(Michelle Roberts Gonzales)表示:“这种不确定性只是导致一些公司试图禁止与人工智能有关的任何事情。”

  伦敦大学学院知识实验室(University College London’s Knowledge Lab)教授罗斯?勒金(Rose Luckin)表示,对于那些试图制定某种策略的人来说,“第一个障碍”就是弄清楚组织内谁最适合研究哪种人工智能对他们的工作有用。她表示,到目前为止,她看到从首席执行官到实习生,每个人都被分配了这项任务,因为企业对人工智能对其业务的重要性的评估大相径庭。

  Sarah是伦敦一家精品律师事务所的律师助理,当她被要求研究和设计一份规则手册,指导她的资深同事如何使用人工智能时,她感到很惊讶。“这成了我的工作,这很奇怪,”她说。“我实际上是资历最浅的员工。-版权所有金融时报有限公司2024

  报名参加

  商业推动lerts

  并有最好的新闻,分析和评论直接发送到您的手机

  找到

  WhatsApp上的爱尔兰时报

  保持与时俱进

  我们的商业内幕播客每周发布-查找最新一期

  在这里

本内容为作者翻译自英文材料或转自网络,不代表本站立场,未经允许不得转载
如对本稿件有异议或投诉,请联系本站
想要了解世界的人,都在 切尔网

相关推荐