来源:IEEE Spectrum
2023年很可能会作为人工智能历史上最疯狂、最戏剧性的年份之一载入史册。2022年年底OpenAI推出了ChatGPT,当人们还在努力了解OpenAI ChatGPT的强大功能时,该公司又于2023年3月发布了最新的大型语言模型GPT-4(大型语言模型本质上是面向消费者的应用程序背后的大脑)。
2023年整个春季,一些权威专业人士都对不断改进的人工智能可能带来的负面后果感到担忧,即这些后果从令人不安到对生存造成的影响等。首先是一封公开信,呼吁暂停先进模型的开发,然后是一份关于存在风险的声明、首届人工智能安全国际峰会,以及美国行政命令和欧盟人工智能法案等具有里程碑意义的法规。
以下是Spectrum 2023年关于人工智能的前10篇文章,文章顺序根据读者阅读时间排列。一起来品味阅读可能会载入史册的2023年人工智能吧……除非2024年更加疯狂。
10.人工智能艺术生成器可能被滥用制作NSFW图像
利用Dall-E 2和Stable Diffusion等文本到图像生成器,用户输入描述他们想要生成的图像的提示,模型就会完成剩下的工作。虽然他们有保护措施来防止用户生成暴力、色情和其他不可接受的图像,但人工智能研究人员和黑客都乐于找出如何规避这些保护措施的方法。对于白帽子和黑帽子来说,破解是新的爱好。
9. OpenAI的Moonshot:解决AI价值对齐问题
OpenAI的Jan Leike的问答深入探讨了AI价值对齐问题。一些人担心,人类可能会建立超级智能的人工智能系统,这种系统的目标与人类的目标不一致,从而可能导致人类物种的灭绝。这确实是一个重要的问题,OpenAI正在投入大量资源寻找方法来对尚不存在的问题进行实证研究(因为超级智能AI系统尚不存在)。
8. 英伟达成功的秘诀
英伟达AI加速GPU让其迎来了美好的一年,其H-100无疑成为了科技领域最热门的硬件。该公司的首席科学家Bill Dally在一次会议上反思了推动英伟达迈入顶层的四种要素。IEEE Spectrum高级编辑Sam Moore写道:“摩尔定律只是英伟达魔法中令人惊讶的一小部分,而新的数字格式则占很大一部分。”
7. ChatGPT的幻觉可能会阻碍其成功
困扰大型语言模型的一个问题是他们编造事实的习惯——用最自信的语气说出不可预测的谎言。当人们试图将其用于真正重要的事情(例如撰写法律摘要)时,这种习惯就会成为一个特殊的问题。OpenAI认为这是一个可以解决的问题,而一些外部专家(例如Meta AI的Yann LeCun)则不同意。
6. 图表中对2023年人工智能状况的十大重要见解
这是列表中的列表!每年,Spectrum编辑都会对斯坦福以人为本的人工智能研究所发布的海量人工智能指数进行分析,将报告提炼成几张反映最重要趋势的图表。2023年的亮点包括训练大型模型的成本和能源需求,以及在招聘博士和构建模型方面工业界相对于学术界的主导地位。
5.令人毛骨悚然的新型数字来世产业
以下摘录自Wendy H. Wong所著的《我们,便是数据》(We, the Data)一书。这段摘录对作为新型数字来世行业的一部分而出现的服务进行了深入研究:一些公司会在您去世后,代表您发送消息,另一些公司则允许您记录故事,其他人可以在以后通过提问来回放。已经有一些例子表明人们根据已故亲人留下的数据构建他们的数字复制品。
4. 人工智能启示录:记分卡
这个项目是在Spectrum编辑讨论真正智能的人工智能方面的从业者(在该领域工作了数十年的人)对两个重要问题持如此截然不同的观点是多么令人惊讶时产生的。也就是说,今天的大型语言模型是否预示着人工智能将很快实现超人的智能,而这种超级智能的人工智能系统是否会为智人带来厄运?为了帮助读者了解意见的范围,我们制作了一个记分卡。
3. 200年历史的数学打开了人工智能的神秘黑匣子
众所周知,为当今人工智能提供动力的神经网络都是黑匣子。研究人员为他们提供训练数据并查看结果,但对中间发生的情况并没有太多了解。一组从事流体动力学研究的研究人员决定使用傅立叶分析(一种数学技术用于识别已经存在了大约200年的模型)来研究经过训练来预测湍流的神经网络。
2. 多邻国的AI如何学习您需要学习的内容
本文是Spectrum标志性的深入研究之一,是由构建该技术的专家撰写的专题文章。在本例中,它是语言学习应用程序多邻国背后的人工智能团队。他们解释了如何开发人工智能系统Birdbrain,它利用教育心理学和机器学习来向用户提供难度适中的课程,以保持用户的参与度。
1. GPT-4热度已经降下来了
Spectrum读者都有逆向思维,因此非常喜欢Rodney Brooks的问答,他自称是人工智能怀疑论者,在该领域工作了数十年。Brooks并没有称赞GPT-4是迈向通用人工智能的一步,而是提请注意大型语言模型在从一项任务推广到另一项任务方面的困难。他表示,“大型语言模型擅长的是说出听起来应该是什么样子的答案,但这与应该是什么的答案不同”。