大家好,我是Michael Reilly。
\ 虽然2024年才刚开始,但是否有人和我一样,已经被围绕人工智能的戏剧性和过度反应弄得筋疲力尽?对我来说特别引人注目的一点是,一些人愿意引用灾难——真正的末日景象——来描述他们那些时髦的聊天机器人和图像生成器。
\ 我特别想到最近在Twitter上,硅谷两位最著名的风险投资家Vinod Khosla和Marc Andreessen之间的小争执,他们也都是OpenAI的投资者。这场争论最初是关于OpenAI的专有代码是否应该开源,但不知怎么演变成了将公司产品与曼哈顿计划相提并论。
\ Khosla的观点似乎集中在国家安全问题上,担心将非常复杂的AI代码开源给可能滥用它的任何人。但这种末日言论实际上是OpenAI创立基因的一部分,这家公司一开始就是为了创造一种基于计算机的超级智能,使其超越人类智力。2022年底,OpenAI发布了ChatGPT,随之而来的是一片喧嚣。灾难性预言也随之蔓延,这些预言来自像Sam Altman这样的人,作为公司负责人,他有既得利益让自己的技术听起来真的很强大。
\ 为什么科技人士喜欢用末日术语谈论事物?公平地说:*每个人*都喜欢谈论末日。古代文明、宗教文本、好莱坞电影制作人、主流媒体、互联网阴谋论者——科技高管并不孤单。相信世界处于灾难边缘似乎是人类的天性。
\ 但对于科技人士来说,我想知道:Sam Altman说他需要7万亿美元将世界转变为人工智能驱动的乌托邦,是因为他真诚地相信这是钱的好用途(他听说过气候变化吗)?这只是营销手段吗?他们的技术听起来越危险,就越能吸引注意力,因此获得更多资金,无论是投资还是公司估值。这个策略...似乎非常有效!OpenAI已被估值800亿美元。
\ 然而,真正的问题是,这种闪亮物体的叙事分散了人们对人工智能实际生活影响的注意力。使用大量数据来预测世界的软件已经存在,并且正在忙碌地运行。在某些情况下——比如洛杉矶的补贴住房评分系统、威斯康星州的辍学早期预警系统、抄袭检测工具,以及从招聘到刑事司法等一系列有据可查的案例——它正在伤害人们。
\ 如果他们愿意关注,我认为这些伟大的科技权力掮客大多会同意我们应该修复像The Markup在洛杉矶或威斯康星州调查的那些系统,使它们运行得更加公平和公正。但是,通过忽视这些诚然不那么性感的主题,而专注于争论人工智能将如何带来末日——或者只有通过风险投资高级祭司的明智管理才能使我们免于毁灭——我们被要求将注意力集中在幻想上。
\ 嘿,谁不喜欢一个好的幻想呢。只要确保为现实留出空间。
\ 感谢阅读,
Michael Reilly
执行编辑
The Markup
\ 附言 – 如果你一直读到这里或者直接跳到底部,你值得一些很酷的东西。以下是我最近在互联网上发现的一些(主要与人工智能相关的)有趣的东西。希望它们能给你这个周末带来一些思考:
\ 也发布于此处
\ 照片由Mylène Haudebourg在Unsplash上提供
\


