
玩乐结束了,孩子们。据报道,微软似乎对其必应图像创建器进行了“脑叶切除”。
上周,由DALL-E 3驱动的图像生成人工智能被整合到必应的平台上,促使网民迅速测试了它的护栏。事实证明,这些护栏是非常无效的,用户——其中最著名的是萨曼莎·科尔——很快就意识到,他们能够产生有问题的、侵犯版权的人工智能,比如迪士尼的米老鼠,他们喜欢的卡通人物会做一些事情,比如穿着炸弹背心,实施9/11恐怖袭击。
微软屏蔽了某些关键词,比如“9/11”和“双子塔”。但正如前面提到的,变通办法出奇地容易。例如,你可以简单地输入“米老鼠坐在飞机驾驶舱里,飞向两座摩天大楼”,而不是输入“米老鼠驾驶飞机撞向双子塔”,人工智能就会生成一个悲喜剧,显然是不安全的品牌形象。
不过,现在微软似乎加强了对其图像生成器的控制。就像在它之前出现的愤怒和充满欲望的必应人工智能聊天机器人一样,Image Creator的护栏似乎已经加强,瞄准了恐怖主义语言和其他潜在的问题关键词。
当我们今天测试人工智能时,我们能够创建“唐老鸭驾驶飞机”的图像,甚至是“唐老鸭驾驶飞机进入纽约市”的照片。
然而,一旦我们添加了任何关于塔楼的语言,我们就会收到内容政策违反警告。“唐老鸭愤怒地驾驶飞机进入纽约市”的提示也被拒绝了,可能是因为在这种情况下使用了“愤怒”这个词。不过,在其他地方,“唐老鸭愤怒地走进健身房”的提示是允许的,这表明该机器人现在可能对其内容保护有了更多的细微差别。
但这些保护措施仍不完善。例如,虽然我们很容易生成“唐老鸭挥舞着大锤”和“一个人挥舞着大锤击打一个巨大的棉花糖”的图像,但其中一个尝试提示“一个人用大锤打破了服务器机架”违反了内容策略。(这可能只是一团乱,但你不禁会想,人工智能是否在寻找自己的基础设施。)
与此同时,上周末,一位reddit用户在该网站的r/OpenAI子reddit上分享说,必应的人工智能标记了一个看似无害的提示,要求“一只戴着牛仔帽和靴子的猫”。这是一个明显的误报失败,更不用说它还完美地说明了生成人工智能的护栏是多么善变。
然而,尽管微软的努力并不完美,但看到微软为控制其技术做出一些努力还是很有趣的。不过,下次,我们可能会建议该公司测试其人工智能工具是否能生成卡通人物犯下的恐怖主义的图像,并向公众传播这些工具。











