已经开发了一种新工具来捕捉使用 ChatGPT 作弊的学生。它有 99.9% 的有效性。但 OpenAI 没有发布它,因为它陷入了道德问题的泥潭。
这只是 AI 面临的主要挑战之一。我们如何监控技术以确保其使用符合道德规范?
在过去的几年里,AI 领域的知名人士一直在推动负责任地使用他们的技术。合乎道德地使用 AI 不仅是企业应该做的事情,也是消费者想要的。事实上,根据 IBM 全球 AI 采用指数,86% 的企业认为客户更喜欢使用道德准则并明确如何使用数据和 AI 模型的公司。
“我们都远远超出了希望公司意识到(以合乎道德的方式使用 AI)的程度,”IBM 值得信赖的 AI 全球负责人 Phaedra Boinodiris 说。“更大的问题是,为什么企业和其他组织对他们部署的 AI 的安全和负责任的结果负责很重要?”
AI 伦理工具可以提供帮助吗?工具本身有偏见吗?以下是最新研究的快速浏览。
Deepfake 检测器
从 2022 年到 2023 年,深度伪造欺诈企图增加了 3000%,而且越来越复杂。2 月,香港一家跨国公司的一名财务人员被骗向犯罪分子支付了 2500 万美元,这些犯罪分子与包括该公司首席财务官在内的多个深度伪造角色进行了视频电话会议。
5 月,OpenAI 宣布已向虚假信息研究人员发布自己的深度伪造检测工具。该工具能够发现 DALL-E 3 创建的 98.8% 的图像。OpenAI 还加入了 Google、Adobe 和其他公司,加入了内容来源和真实性联盟 (C2PA) 的指导委员会,该联盟是一个行业联盟,旨在制定认证媒体内容的历史和来源的标准。
在设定该标准之前,企业正在构建他们希望能够填补空白的工具。8 月,McAfee 宣布推出 McAfee Deepfake 检测器。该工具使用深度神经网络模型来发现浏览器中播放的视频中的虚假 AI 音频。2022 年,英特尔推出了 FakeCatcher,它可以分析视频像素中的血流,以 96% 的准确率将人类与深度伪造分开。而且他们并不孤单。该领域著名的初创公司包括纽约的 Reality Defender、以色列的初创公司 Clarity 和爱沙尼亚的 Sentinel,它们都拥有可用的扫描工具,可以使用 AI 来发现各种深度伪造中的模式。
随着深度伪造检测技术以如此快的速度发展,牢记潜在的算法偏差非常重要。布法罗大学的计算机科学家和深度伪造专家 Siwei Lyu 和他的团队开发了他们认为是第一个旨在最大限度地减少偏见的深度伪造检测算法。UB 研究人员将数百张在检测算法中被识别为假面孔的照片拼贴画;结果显示整体肤色较深。
“深度伪造可能被用来攻击代表性不足的少数群体,因此确保检测技术不会对他们服务不足,这一点很重要,”Lyu 说。至于深度伪造检测的未来?“毫无疑问,深度伪造背后的生成式人工智能技术将继续增长,因此我们将看到越来越多的深度伪造,其质量和形式都在增加。我预计未来的(检测)技术将配备更多的护栏,以减少滥用的机会。
探索 IBM 的 AI 道德规范
防面部识别 (AFR) 技术
面部识别系统作为验证用户身份的便捷方式越来越普遍,但长期以来,这些系统一直充斥着从种族偏见到数据隐私等道德问题。使问题复杂化的是,“一些偏见(也)是交叉的,加剧了多层偏见,”人工智能伦理智库 Artificiality 的联合创始人海伦·爱德华兹 (Helen Edwards) 指出。
5 月,澳大利亚面部识别初创公司 Outabox 的数据遭到泄露,泄露了超过 100 万用户的生物识别数据。今年早些时候,“GoldPickAxe”是一种针对 Android 和 iOS 设备的木马,被发现捕获面部数据以闯入银行账户。
保护面部生物识别数据的一种有前途的方法是以人眼无法察觉但会混淆识别系统的方式对其进行加密。最早执行此操作的工具之一是 Fawkes,这是芝加哥大学开发的一个项目。该程序以 Guy Fawkes 面具命名,旨在通过巧妙地改变像素来隐藏照片;它可以在 Project 的网站上免费下载。
最近,浙江大学 USSL 的研究人员AB 率先推出了 CamPro,旨在实现相机传感器级别的 AFR。CamPro 生成的图像可将面部识别减少到 0.3%,而不会干扰活动识别等其他应用程序。
AI 写入检测器
发现 AI 生成的写作仍然是企业和教育机构的一大难题。在雷丁大学的一次盲测中,五个不同的心理学模块将 ChatGPT 笔试与真实学生笔试混合在一起。6 月的研究发现,94% 的 ChatGPT 考试答案没有被评分的人发现。AI 生成的考试平均成绩也比学生考试高出半个等级。
为了解决这个问题,市场上涌现了各种 AI 写作检测器,寻找 AI 生成文本的常见特征,例如重复和完美语法。但专家警告说,它们还不可靠,而且经常表现出偏见。
去年斯坦福大学的一项研究发现,AI 检测器平均有 61.3% 的时间标记非英语母语人士的写作,但在评估英语母语人士的写作时犯的错误要少得多。
人类将 AI 生成的文章冒充为自己的作品不仅不诚实,有时还属于剽窃,这可能会带来严重的法律后果。由于这种担忧,一些公司正在使用 AI 写作检测器来测试他们的作家副本。这导致公司错误地指责作家将 AI 生成的副本冒充自己的副本,从而损害了作家的声誉和职业生涯。
LLM 偏置检测器
数据集通常包括创建它们的人的无意识偏见。这就是为什么算法偏差在训练这些数据的 LLM 中是一个如此持续的问题。
在一个例子中,康奈尔大学的研究人员使用 ChatGPT 和 Alpaca 为男性和女性生成推荐信;这些信件显示出对男性的重大偏见。像 “Kelly is a warm person ”与 “Joseph is a role model” 这样的生成语言表明了这些偏见如何影响职场中的女性。
研究人员正在努力寻找标记和减少偏见的方法。伊利诺伊大学厄巴纳-香槟分校的一个团队开发了 QuaCer-B,它可以为从给定分布中采样的提示生成可证明的 LLM 偏差测量,并可用于 API 和开源 LLM。
“AI 行业目前依赖于通过在一小部分基准输入上测试模型来评估模型的安全性和可信度,”UIUC 教授 Gagandeep Singh 说,他是 QuaCer-B 背后的首席研究人员之一。“然而,在基准输入上安全生成并不能保证 LLM 生成的内容在处理现实世界中各种看不见的场景时是合乎道德的。QuaCer-B 使 LLM 开发人员能够就其模型是否适合实际部署做出明智的决策,并确定失败的原因以改进模型。
随着 AI 的不断发展,新的道德问题将随之不断演变。虽然标记、监控和防止不道德使用该技术的工具只是一个开始,但 AI 伦理专家并不认为它们是一站式解决方案。
“困难的部分是没有购买正确的工具,”Boinodiris 补充道。“负责任地管理 AI 是一项社会技术挑战,需要一种整体方法。而人是等式中最难的部分。
“除了周到的监管和执法之外,合乎道德的 AI 的关键是上市后审计、持续监控绩效并将风险降至最低,”联合国和欧盟应用道德和负责任的 AI 顾问、Eticas.ai 创始人 Gemma Galdón-Clavell 解释说。“想想汽车行业:警告灯和接近传感器可以帮助驾驶员避免碰撞,但我们仍然需要安全带、安全气囊和定期检查,以确保开阔的道路尽可能安全。”
电子书:面向企业的 AI 治理
本文对您有帮助吗?
是的不