ChatGPT 之父回应一切
OpenAI CEO Sam Altman 不仅用他的 ChatGPT 改变了人们对 AI 的期待,现在甚至扭转了科技巨头 CEO 到国会出庭必然「难堪」的局面。
听证会上的 Altman 放松自如,谈笑风生。
议员们虽然也会提出质疑,但整体氛围算不上具有攻击性。
在出庭前一晚,Altman 就已经在国会大厦已经和 60 多位议员共进晚餐,开展了一次关于 AI 的广泛而高信息密度的对话。
有参与的议员表示,那是一次很好的交流,Altman「提供了很多实时的展示。我觉得现场很多成员都被惊艳到了」。
对于 Altman 听证会上的表现,议员似乎也很满意。
议员 Chair Richard Blumenthal 事后对记者说:
不只是表达(很好),而且在实际行动,以及他参与的意愿和对特定行动的投入(都比一些科技巨头高管好很多)。
Altman 在这场听证会上究竟讨论了什么?我们划了下重点👇🏻
我做这不是为了钱,是为了爱
在 OpenAI 飞速发展的今天,有议员问 Altman 是否已经从中赚到很多钱。
Altman 的答案是否定的。
不,我没有 OpenAI 的股权,我的薪水只够买保险。
议员开玩笑地说:「真的吗?有意思。你需要个律师。」
Altman:「我做这个只是因为我热爱它。」
在讨论为 AI 设立专门的监管机构时,Altman 表示自己可以帮忙设立安全准则。有议员就问,假如政府愿意通过这些准则,Altman 会愿意去做管理:
Altman:「我爱我现在的工作。」
政府,快来监管我吧
Altman:「OpenAI 相信 AI 的监管至关重要,我们迫切希望帮助政策制定者决定如何促进监管,在确保人们能够获得技术利益的同时,也能激励做好安全性。」
Altman 承认 AI 可能会带来危害:
我们知道,人们对于这项技术将如何改变我们的生活感到很焦虑。我们也是。如果这项技术出了问题,那问题真的会严重。
同时,他也不希望人们会对 AI 过度恐惧:
很重要的是,我们要明白 GPT-4 是一个工具,不是生物。
而且是一个人们能在很大程度上去控制的工具。
对于该如何监管 AI,Altman 建议设立新的政府机构和 AI 安全标准,为相关公司颁发许可。
如果有公司要做超过安全标准的 AI 模型,那政府可以结合许可和测试要求来对其进行监管。
对于 Altman 提出的监管建议,政策研究中心 AI Now Institute 负责人 Sarah Myers West 并不买账:
这很讽刺,看着那些快速把造成伤害的产品投入商用的人在表达自己有多么担心(产品会造成)伤害。
是原子弹,还是印刷机
有议员提出,现在留给政府去切入监管 AI 的时间已经不多了,我们先又无法确认 AI 对于人类的利弊到底哪边更大:
我的问题是,它会是哪一种创新?
它是会像印刷机一样,广泛传播知识和推广教育……或者,它会更像原子弹,一项至今仍困扰着我们的巨大技术突破?
Altman 回答:
我们现在在这里,是因为人们喜欢这项技术。我觉得它能成为印刷机,但我们必须通力合作去实现。
AI 只是新的 PS?
对于人们担心 AI 会被用于造假和欺诈,Altman 表示自己会有类似的疑虑。
Altman 也指出,过去我们在应对 Photoshop 的时候也有过类似的疑虑,但现在的情况倒还好:
我觉得人能够很快地适应过来。
很久以前,Photoshop 刚出来的时候,有一段时间人们也会被 PS 过的图骗到,但很快也能达到一个新共识,明白图片可能会是被改过的。现在的情况也是这样,但更极端而已。
AI 会导致失业吗?
Altman 认为 AI 会替代很多工作,也能创造很多工作,结果如何,还得看政府:
我认为 GPT-4 会完全自动化一些工作,也会创造出一些新的工作……所以会对就业带来影响。
我觉得行业和政府需要合作,但更多的行动还是要靠政府,去想清楚我们要怎样处理。
AI vs 社交媒体
在听证会上,议员多次提起之前国会在社交媒体监管上的遗憾,并表示不想在 AI 上重蹈覆辙:
国会在社交媒体上错失了介入的时机,现在,我们有义务在威胁和风险变成现实之前,在 AI 上做好这件事。
Altman 则强调,AI 和社交媒体不同:
在面对一项非常新的技术时,我们需要一个新的框架。
当然,像我们这样的公司需要为我们做出来的工具承担责任,但使用者也同样要负责。
有议员直接提问,如果用户的权益受到侵犯,普通人有什么能有什么资源保护自己。Altman 听到这个问题时略显困惑:
人们不可以告我们吗?
报道指出,这个看起来很简单的问题,很不幸的,暂时并没有明确答案。
改变,道阻且远
这场持续了数小时的讨论并未产出任何实质性的计划,部分外媒分析也不看好美国政府的行动力。
Vox 分析认为,政府一直以来在管理科技公司这件事上都非常滞后,国会基本也很难推动什么法律,一直都依靠科技公司自我监管。
而这也太不靠谱了。
虽然科技公司经常在强调,他们很重视安全性,很想要去做负责任的 AI 平台,建立负责任 AI 团队。
但在利益之前,这些都得往后排。
当科技公司的 AI 伦理团队出面说说安全性有问题时,这些员工可能就会被解雇。也就是说,有道德的 AI 研究人员想说真话,都得冒着被裁员的风险。
议员 Michael Bennet 在接受 Vox 采访时表示:
国会处于劣势。
如果说我们的有限力量都没法管理像 Facebook 这样的传统互联网平台,那我们在面对 AI 时的紧迫程度就是前者十倍了。