主頁 Tech AI 女性群体:Miriam Vogel 强调负责任的 AI 的必要性

AI 女性群体:Miriam Vogel 强调负责任的 AI 的必要性

为了给以人工智能为重点的女性学者和其他人他们应得的——而且迟来的——关注,TechCrunch 一直在发布一系列采访,着重介绍了对 AI 革命做出贡献的杰出女性。在 AI 繁荣继续的这一年里,我们将继续发布这些文章,突出那些经常被忽视的关键工作。更多简介请点击这里。

Miriam Vogel 是 EqualAI 的首席执行官,这是一个旨在减少 AI 中的无意识偏见并促进负责任 AI 治理的非营利组织。她还担任最近成立的国家 AI 咨询委员会主席,该委员会受到国会的授权,旨在就 AI 政策向总统乔·拜登和白宫提供建议,并在乔治敦大学法学院教授技术法律和政策。

福格尔此前曾担任司法部副助理部长,向总检察长和副总检察长提供建议各类广泛的法律、政策和运营问题。作为负责任 AI 研究所的董事会成员和民主和技术中心的高级顾问,福格尔已向白宫领导层就女性、经济、监管和食品安全政策等各项倡议提供建议,以及刑事司法事务。

简短来说,您是如何开始从事 AI 领域的?什么吸引了您进入这个领域?

我开始我的职业生涯是在政府部门工作,最初是作为一名参议院实习生,是 11 年级暑期前。我逐渐开始对政策感兴趣,并在接下来的几个暑假在国会山和白宫工作。那时,我的重点是民权,这并不是到人工智能的常规发展路径,但回顾过去,这是完全合理的。

从法学院毕业后,我的职业生涯从专门从事知识产权的娱乐律师转向在行政部门从事公民权利和社会影响工作。我有幸在白宫任职时负责领导平等工资特别小组,并且在曾担任前副检察长莎莉·耶茨的副助理检察长期间,我主导了联邦执法对内在偏见培训的创建和发展。

我被邀请领导 EqualAI,基于我作为科技律师的经验以及我在政策领域解决偏见和系统性伤害的背景。我被这个组织吸引是因为我意识到 AI 提出了下一个民权前沿。若不慎重,几十年的进步可能会因一行代码被抹去。

我一直对创新带来的可能性感到兴奋,我仍然认为 AI 可以为更多群体提供惊人的新机会——但只有在这个关键时刻小心谨慎,确保更多人能够参与其创造和发展。

您如何应对男性主导的科技行业及 AI 行业带来的挑战?

我基本上相信我们所有人都有责任确保我们的 AI 尽可能有效、高效和有益。这意味着要确保我们在其发展中更多地支持女性的声音(这些声音在美国的购买中占比超过 85%,因此确保他们的利益和安全纳入其中是一个明智的商业举措),以及各种年龄、地区、种族和国籍的其他代表人群的声音。这些群体在AI的开发中并未充分参与。

在我们朝着性别平等努力的时候,我们必须确保考虑更多的声音和观点,以开发符合所有消费者需求的 AI——不仅是为开发人员打造的AI。

您会给寻求进入AI领域的女性什么建议?

首先,现在开始永远不会太晚。从来没晚。我鼓励所有祖父母尝试使用 OpenAI 的 ChatGPT、微软的 Copilot 或谷歌的 Gemini。我们都需要变得有能力使用AI,才能在即将到来的AI驱动经济中蓬勃发展。这是令人兴奋的!我们大家都有责任。无论你是开始从事AI职业还是使用AI支持工作,女性应该尝试AI工具,看看这些工具能做什么,不能做什么,看看它们是否适合自己,并提高AI技能。

其次,负责任的AI开发不仅需要道德计算机科学家。许多人认为AI领域需要计算机科学或其他STEM学位,而实际上,AI需要来自各种背景的女性和男性的视角和专业知识。挺身而出!你的声音和观点是必需的。你的参与至关重要。

随着AI的发展,有哪些最迫切的问题?

首先,我们需要更多的AI素养。在EqualAI,我们是“AI净正”思考,意味着我们认为AI将为我们的经济提供前所未有的机会,改善我们的日常生活——但只有在这些机会对我们整个人口横截面平等可用和有益的情况下才能如此。我们需要我们当前的劳动力、下一代、我们的祖父母——所有人——具备从AI中受益的知识和技能。

其次,我们必须制定标准措施和度量AI系统。标准化评估对于建立对我们的AI系统的信任至关重要,使消费者、监管机构和下游用户能够了解他们正在参与的AI系统的极限,并确定该系统是否值得我们信任。了解一个系统是为谁建立以及设想的使用案例将帮助我们回答关键问题:这个系统可能失败的对象是谁?

AI用户应该注意哪些问题?

人工智能就是这样:人造的。它是由人类创造的,以“模仿”人类认知和在他们的追求中赋予人类力量。在使用这项技术时,我们必须保持适当程度的怀疑,并进行尽职调查,以确保我们将信任放在值得我们信任的系统中。AI可以增强——但不能取代——人性。

我们必须保持清醒的认识到AI由两个主要成分组成:算法(由人类创建)和数据(反映人类对话和互动)。因此,AI反映并适应我们的人类缺陷。通过AI生命周期,偏见和伤害可能通过人类编写的算法或反映人类生活的数据嵌入其中。然而,每一次人类接触都是识别和减轻潜在伤害的机会。

由于一个人只能根据自己的经历来想象广泛,而AI程序受到构建条件的限制,团队中有多种观点和经验的人越多,就越有可能发现内嵌在他们的AI中的偏见和其他安全问题。

如何负责任地构建AI?

建设值得我们信任的AI是我们所有人的责任。我们不能期望别人替我们做。我们必须从问三个基本问题开始:(1)这个AI系统是为谁建立的(2),设想的使用案例是什么,(3)这个系统可能失败的是谁?即使在考虑这些问题时,不可避免地会遇到陷阱。为了减缓这些风险,设计师,开发者和部署者必须遵循最佳实践。

在EqualAI,我们提倡良好的“AI卫生”习惯,这包括规划您的框架并确保问责制,标准化测试、文档化和例行审计。我们最近还发布了一份指南,介绍了设计和运营责任AI治理框架的价值观、原则和框架,该指南为任何规模、领域或成熟度的组织在内部和公开承诺以负责任的方式采用、发展、使用和实施AI系统提供了资源。

投资者如何更好地推动负责任的AI发展?

投资者在确保我们的AI安全、有效和负责任方面发挥着巨大作用。投资者可以确保正在寻求资金的公司意识到并考虑在其AI系统中减少潜在的伤害和责任。甚至提问“你如何制定AI治理实践?”这个问题是确保更好结果的有意义的第一步。

这一努力不仅对公共利益有好处,也对投资者最有利,他们将希望确保投资的公司不与不良头条相关或受到诉讼的影响。信任是公司成功的少数无法商讨的因素之一,承诺负责任的AI治理是建立和维持公众信任的最佳途径。稳固可靠的AI是明智的商业决策。