美国国会听证会与 OpenAI ChatGPT 创始人的 9 个关键时刻
“我们认为政府的监管干预对减轻日益强大的 AI 所带来风险至关重要,” 阿尔特曼在听证会上说。
阿尔特曼和其他作证的专家证人都赞同 ChatGPT 的模式,如果不加以监管,可能会增加网络上的错误信息,助长网络犯罪,甚至威胁到选举制度。立法者和阿尔特曼探讨了许多潜在的政策和解决方案,甚至考虑成立一个全新的人工智能监管机构,以监督人工智能技术的发展和部署。
1、理查德・布卢门撒尔用 ChatGPT 伪装成自己写了一份声明
康涅狄格州参议员理查德・布卢门撒尔(Richard Blumenthal)在听证会开始时播放了一段“他的录音”。但这段录音并不是参议员本人,而是一个语音克隆软件在阅读 ChatGPT 生成文本后的“杰作”。
“这不是我们想要的未来,”人工智能生成的布卢门撒尔说。
2、阿尔特曼要求国会监管人工智能(但只是一点点,不要太多)
阿尔特曼承认,他的产品及其他人工智能产品可能会带来意想不到的后果,他欢迎国会制定新的监管标准,制定道路规则,也许更重要的是,为他的竞争对手制定规则。
阿尔特曼说:“我们认为,政府的监管干预对于减轻日益强大的人工智能模型带来的风险至关重要。”然而阿尔特曼也提出并敦促立法者专注于控制大公司,避免扼杀较小的初创公司。
3、国会试图避免重蹈未能监管社交媒体的覆辙
包括参议员布卢门撒尔和新泽西州参议员科里・布克(Cory Booker)在内的多名议员告诫到,在防止社交媒体成为传播错误信息和有害内容的方面,他们犯了错误。通过针对人工智能的监管也许会带来救赎。
布卢门撒尔说:“国会未能在社交媒体上及时采取行动,现在我们有义务在威胁和风险成为现实之前对人工智能采取必要措施。”
4、乔希・霍利:人工智能可能会是下一台印刷机,或者下一颗原子弹
密苏里州参议员乔希・霍利(Josh Hawley)认为,像 GPT4 这样的人工智能可能会朝着两个截然不同的方向发展。
“我们可能会看到人类历史上最重要的技术创新之一,”霍利说。“我的问题是,这将是一种什么样的创新?它会像印刷机那样传播知识、力量和学习…… 还是会更像原子弹?”
其他一些人,如南卡罗来纳州参议员林赛・格雷厄姆(Lindsey Graham)也附和了原子弹的言论,尽管他们都淡化了灾难性的人工智能末日场景。
5、阿尔特曼说人工智能可能会“对世界造成重大伤害”
阿尔特曼可能没有像一些议员那样将人工智能比作核武器,但他承认,他担心自己的产品可能会“对世界造成重大伤害”。这些危害可能会以大量虚假信息、骗局、大规模失业和在网上混淆真实情况的方式展现出来。
阿尔特曼向参议员们保证,他相信人工智能的“好处远大于风险”,但他也承认,政府干预和监管对于防范人工智能的副作用可能至关重要。
6、玛莎・布莱克本对人工智能感到不安
田纳西州参议员玛莎・布莱克本(Marsha Blackburn)用一个意想不到的例子引发了关于人工智能模型使用版权材料的争论:人工智能加思・布鲁克斯(AI Garth Brooks)。
这位参议员告诉阿尔特曼,她听说一个受过乡村歌手训练的人工智能对他的作品进行了令人信服的改编。布莱克本用这个例子来要求艺术家从阿尔特曼的公司获得补偿,如果他们的作品有助于训练人工智能。阿尔特曼似乎对补偿艺术家的想法持开放态度,但他没有给出任何具体解决办法。
7、阿尔特曼称人工智能对社会的影响可能就像 Photoshop 的“类固醇”
阿尔特曼承认,人们越来越担心人工智能有可能通过复杂的聊天机器人和深度造假来欺骗用户。尽管他承认自己“很担心”,但阿尔特曼表示,社会对 Adobe 的 Photoshop 也表现出了类似的现象。
“我认为人们很快就能适应,” 阿尔特曼说。“很久以前,当 Photoshop 出现在人们面前时,刚开始人们确实会被 PS 过的图像所欺骗,但这种现象不会持续太久。就像运动员使用了类固醇一样。
8、一位 AI 怀疑论者同意阿尔特曼关于为人工智能设立政府部门的想法
纽约大学名誉教授加里・马库斯于 2023 年 5 月 16 日在华盛顿特区的参议院隐私、技术和法律司法小组委员会作证。
阿尔特曼和少数几位在隐私、技术和法律小组委员会(Subcommittee on Privacy, Technology & Law)上的议员似乎都同意,需要一个由专家领导的新人工智能机构,能够监管人工智能的发展和部署。这个拟议中的机构将独立于 FTC 和 FCC 等其他监管机构,从理论上讲,它可以向人工智能公司颁发许可证,并吊销那些被认为不合格公司的许可证。人工智能研究员、前纽约大学教授加里・马库斯(Gary Marcus)在听证会上作证,他支持设立人工智能监管机构,并表示该机构应与国际伙伴密切合作,制定全球人工智能标准。
9、阿尔特曼问立法者:ChatGPT 用户是否可以起诉他
在听证会上发言的立法者和专家可能已经就人工智能造成的一些社会危害达成了一致意见,但对于已经受到影响的用户目前可以做些什么来让 OpenAI 或其他人工智能公司对危害负责而言,他们没有发表太多意见。例如,立法者和专家不同意聊天机器人是否应该根据“通信规范法”第 230 条获得与社交媒体公司相同的豁免预测。当霍利直接问用户有什么追索权时,阿尔特曼似乎很困惑。
“人们不能起诉我们吗?” 阿尔特曼问道。令人担忧的是,这个看似简单的问题答案却仍然不明确。“我还不知道正确的答案是什么。”
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。