
人工智能或许是现代历史上应用最广泛的技术,却也是最不被信任的技术之一。
风险投资家、特朗普总统的顾问大卫·萨克斯坚称,这种脱节并非因为AI威胁就业、隐私安全或经济前景。相反,这背后是由他所说的“末日论产业复合体”投入10亿美元,精心策划的一场阴谋。这个“暗影网络”由一批“有效利他主义”派系的亿万富翁组成,其资金来源包括已被定罪的FTX创始人山姆·班克曼-弗里德和Facebook联合创始人达斯汀·莫斯科维茨。
萨克斯本周在社交平台X上发文称,公众对AI的不信任并非自然形成,而是人为制造的结果。他援引了科技文化学者尼里特·魏斯-布拉特的研究。后者长期绘制所谓“AI末日论”生态的版图,涵盖了智库、非营利组织及未来学家。
魏斯-布拉特的研究记录了数百个主张对先进AI实施严格监管、甚至暂停研发的组织。她指出,这些机构背后的资金大多来自“有效利他主义”运动中的少数几位金主,包括Facebook联合创始人达斯汀·莫斯科维茨、Skype创始人亚恩·塔林、以太坊(Ethereum)创始人维塔利克·布特林,以及已被定罪的FTX创始人山姆·班克曼-弗里德。
据魏斯-布拉特统计,这些慈善家已累计投入超过10亿美元,用于研究或减缓AI带来的“生存风险”。其中,莫斯科维茨创立的开放慈善项目(Open Philanthropy)是“迄今为止”的最大资助方。
该机构强烈反驳了外界的指责,否认其渲染科幻小说般的“末日场景”。
开放慈善项目的一位发言人向《财富》杂志表示:“我们相信,技术发展与科学进步极大地改善了人类福祉——这也是我们长期聚焦这些领域的原因。AI拥有巨大的潜力,可以加速科学发展、推动经济增长、拓展人类知识,但它同样带来前所未有的风险,这一观点在不同政治阵营的领导者中已成为共识。我们支持以超党派的审慎方式进行研究,以管理这些风险,并释放AI的巨大红利。”
但与硅谷风投圈关系密切、早年曾任PayPal高管的大卫·萨克斯则声称,开放慈善项目的资助不仅仅是在警示风险,更推动了一场全球公关战,渲染所谓“神一般的AI”威胁。他援引民调数据指出,中国有83%的受访者认为AI利大于弊,而美国这一比例仅为39%。他认为这正说明所谓的“宣传资金”已改变了美国的AI舆论走向。
萨克斯长期主张在AI及更广泛的科技领域,采取“产业友好、不设监管”的政策立场,并将这种立场包装在“与中国竞争”的叙事框架之下。
萨克斯旗下的风险投资公司Craft Ventures尚未回应《财富》杂志的置评请求。
什么是“有效利他主义”?
萨克斯所称的“宣传资金”,主要来自“有效利他主义”(EA)群体。这个群体由理想主义者、哲学家与科技亿万富翁组成。他们相信,人类肩负的最大道德使命是防止未来灾难,包括“失控的AI”。
有效利他主义运动由牛津大学(Oxford)哲学家威廉·麦卡斯基尔与托比·奥德在十多年前发起,倡导捐赠者运用数据与理性,以实现“最大的善举”。
在此理念框架下,部分成员将重心转向“长期主义”,即认为防止诸如全球疫情、核战争或失控AI等“生存风险”,应优先于短期社会议题。
部分坚持有效利他主义理念的组织主张对AI实施严格监管,甚至暂缓大模型开发;而另一些机构(如开放慈善项目)则采取更技术化的路径,资助OpenAI、Anthropic等公司的“AI对齐”研究。在FTX于2022年倒闭之前,该运动的影响力曾急剧扩大,FTX的创始人山姆·班克曼-弗里德一度是该运动最大的资助者之一。
21岁的大学生马修·阿德尔斯坦在Substack平台上开设了主页,专门介绍“有效利他主义”,在该领域颇具影响力。他指出,该运动的格局远非萨克斯所描述的那种“单一化机器”。魏斯-布拉特绘制的“AI生存风险生态版图”中包含数百个独立实体,其中有大学实验室、非营利机构,还有个人博客,它们虽然使用类似的语言,但并非协调一致。然而,魏斯-布拉特认为,这一“膨胀的生态系统”并非“草根运动,而是有其自上而下的结构”。
阿德尔斯坦对此并不认同,他认为现实情况“更加分散”,也远没有魏斯-布拉特和萨克斯所描绘的“那么阴暗”。
阿德尔斯坦在接受《财富》杂志采访时表示:“公众对AI的担忧,大多与亿万富翁所谈论的问题并不相同。公众更关心的是作弊、偏见、失业等眼前的危害,而不是所谓的生存风险。”
他认为,把焦点放在富豪捐赠者身上完全偏离了重点。
他表示:“人工智能确实存在非常严重的风险。就连AI开发者都认为,AI导致人类灭绝的可能性有几个百分点。部分富人认同风险的严重性,这本身并不能成为反对AI的理由。”
在阿德尔斯坦看来,所谓“长期主义”并非对遥远未来的狂热迷信,而是一种务实的全球风险分级框架。
他表示:“我们正在研发极其先进的AI,同时还面临严重的核风险和生物风险,而世界对此几乎毫无准备。‘长期主义’只是提醒我们——应该投入更多力量去防止这些威胁。”
阿德尔斯坦否认有效利他主义已演变成“准宗教运动”的说法。
他笑称:“如果真有某种‘邪教’,以有效践行利他主义为宗旨,能每年拯救五万人的生命,那这样的‘邪教’有存在的价值。”(*)
译者:刘进龙
审校:汪皓
人工智能或许是现代历史上应用最广泛的技术,却也是最不被信任的技术之一。
风险投资家、特朗普总统的顾问大卫·萨克斯坚称,这种脱节并非因为AI威胁就业、隐私安全或经济前景。相反,这背后是由他所说的“末日论产业复合体”投入10亿美元,精心策划的一场阴谋。这个“暗影网络”由一批“有效利他主义”派系的亿万富翁组成,其资金来源包括已被定罪的FTX创始人山姆·班克曼-弗里德和Facebook联合创始人达斯汀·莫斯科维茨。
萨克斯本周在社交平台X上发文称,公众对AI的不信任并非自然形成,而是人为制造的结果。他援引了科技文化学者尼里特·魏斯-布拉特的研究。后者长期绘制所谓“AI末日论”生态的版图,涵盖了智库、非营利组织及未来学家。
魏斯-布拉特的研究记录了数百个主张对先进AI实施严格监管、甚至暂停研发的组织。她指出,这些机构背后的资金大多来自“有效利他主义”运动中的少数几位金主,包括Facebook联合创始人达斯汀·莫斯科维茨、Skype创始人亚恩·塔林、以太坊(Ethereum)创始人维塔利克·布特林,以及已被定罪的FTX创始人山姆·班克曼-弗里德。
据魏斯-布拉特统计,这些慈善家已累计投入超过10亿美元,用于研究或减缓AI带来的“生存风险”。其中,莫斯科维茨创立的开放慈善项目(Open Philanthropy)是“迄今为止”的最大资助方。
该机构强烈反驳了外界的指责,否认其渲染科幻小说般的“末日场景”。
开放慈善项目的一位发言人向《财富》杂志表示:“我们相信,技术发展与科学进步极大地改善了人类福祉——这也是我们长期聚焦这些领域的原因。AI拥有巨大的潜力,可以加速科学发展、推动经济增长、拓展人类知识,但它同样带来前所未有的风险,这一观点在不同政治阵营的领导者中已成为共识。我们支持以超党派的审慎方式进行研究,以管理这些风险,并释放AI的巨大红利。”
但与硅谷风投圈关系密切、早年曾任PayPal高管的大卫·萨克斯则声称,开放慈善项目的资助不仅仅是在警示风险,更推动了一场全球公关战,渲染所谓“神一般的AI”威胁。他援引民调数据指出,中国有83%的受访者认为AI利大于弊,而美国这一比例仅为39%。他认为这正说明所谓的“宣传资金”已改变了美国的AI舆论走向。
萨克斯长期主张在AI及更广泛的科技领域,采取“产业友好、不设监管”的政策立场,并将这种立场包装在“与中国竞争”的叙事框架之下。
萨克斯旗下的风险投资公司Craft Ventures尚未回应《财富》杂志的置评请求。
什么是“有效利他主义”?
萨克斯所称的“宣传资金”,主要来自“有效利他主义”(EA)群体。这个群体由理想主义者、哲学家与科技亿万富翁组成。他们相信,人类肩负的最大道德使命是防止未来灾难,包括“失控的AI”。
有效利他主义运动由牛津大学(Oxford)哲学家威廉·麦卡斯基尔与托比·奥德在十多年前发起,倡导捐赠者运用数据与理性,以实现“最大的善举”。
在此理念框架下,部分成员将重心转向“长期主义”,即认为防止诸如全球疫情、核战争或失控AI等“生存风险”,应优先于短期社会议题。
部分坚持有效利他主义理念的组织主张对AI实施严格监管,甚至暂缓大模型开发;而另一些机构(如开放慈善项目)则采取更技术化的路径,资助OpenAI、Anthropic等公司的“AI对齐”研究。在FTX于2022年倒闭之前,该运动的影响力曾急剧扩大,FTX的创始人山姆·班克曼-弗里德一度是该运动最大的资助者之一。
21岁的大学生马修·阿德尔斯坦在Substack平台上开设了主页,专门介绍“有效利他主义”,在该领域颇具影响力。他指出,该运动的格局远非萨克斯所描述的那种“单一化机器”。魏斯-布拉特绘制的“AI生存风险生态版图”中包含数百个独立实体,其中有大学实验室、非营利机构,还有个人博客,它们虽然使用类似的语言,但并非协调一致。然而,魏斯-布拉特认为,这一“膨胀的生态系统”并非“草根运动,而是有其自上而下的结构”。
阿德尔斯坦对此并不认同,他认为现实情况“更加分散”,也远没有魏斯-布拉特和萨克斯所描绘的“那么阴暗”。
阿德尔斯坦在接受《财富》杂志采访时表示:“公众对AI的担忧,大多与亿万富翁所谈论的问题并不相同。公众更关心的是作弊、偏见、失业等眼前的危害,而不是所谓的生存风险。”
他认为,把焦点放在富豪捐赠者身上完全偏离了重点。
他表示:“人工智能确实存在非常严重的风险。就连AI开发者都认为,AI导致人类灭绝的可能性有几个百分点。部分富人认同风险的严重性,这本身并不能成为反对AI的理由。”
在阿德尔斯坦看来,所谓“长期主义”并非对遥远未来的狂热迷信,而是一种务实的全球风险分级框架。
他表示:“我们正在研发极其先进的AI,同时还面临严重的核风险和生物风险,而世界对此几乎毫无准备。‘长期主义’只是提醒我们——应该投入更多力量去防止这些威胁。”
阿德尔斯坦否认有效利他主义已演变成“准宗教运动”的说法。
他笑称:“如果真有某种‘邪教’,以有效践行利他主义为宗旨,能每年拯救五万人的生命,那这样的‘邪教’有存在的价值。”(*)
译者:刘进龙
审校:汪皓
Artificial intelligence may be the most widely adopted technology in modern history, but it’s also one of the least trusted.
That disconnect, David Sacks insists, isn’t because AI threatens your job, privacy and the future of the economy itself. No – according to the venture-capitalist-turned-Trump-advisor, it’s all part of a $1 billion plot by what he calls the “Doomer Industrial Complex,” a shadow network of Effective Altruist billionaires bankrolled by the likes of convicted FTX founder Sam Bankman Fried and Facebook co-founder Dustin Moskovitz.
In an X post this week, Sacks argued that public distrust of AI isn’t organic at all — it’s manufactured. He pointed to research by tech-culture scholar Nirit Weiss-Blatt, who has spent years mapping the “AI doom” ecosystem of think tanks, nonprofits, and futurists.
Weiss-Blatt documents hundreds of groups that promote strict regulation or even moratoriums on advanced AI systems. She argues that much of the money behind those organizations can be traced to a small circle of donors in the Effective Altruism movement, including Facebook co-founder Dustin Moskovitz, Skype’s Jaan Tallinn, Ethereum creator Vitalik Buterin, and convicted FTX founder Sam Bankman-Fried.
According to Weiss-Blatt, those philanthropists have collectively poured more than $1 billion into efforts to study or mitigate “existential risk” from AI. However, she pointed at Moskovitz’s organization, Open Philanthropy, as “by far” the largest donors.
The organization pushed back strongly on the idea that they were projecting sci-fi-esque doom and gloom scenarios.
“We believe that technology and scientific progress have drastically improved human well-being, which is why so much of our work focuses on these areas,” an Open Philanthropy spokesperson told Fortune. “AI has enormous potential to accelerate science, fuel economic growth, and expand human knowledge, but it also poses some unprecedented risks — a view shared by leaders across the political spectrum. We support thoughtful nonpartisan work to help manage those risks and realize the huge potential upsides of AI.”
But Sacks, who has close ties to Silicon Valley’s venture community and served as an early executive at PayPal, claims that funding from Open Philanthropy has done more than just warn of the risks– it’s bought a global PR campaign warning of “Godlike” AI. He cited polling showing that 83% of respondents in China view AI’s benefits as outweighing its harms — compared with just 39% in the United States — as evidence that what he calls “propaganda money” has reshaped the American debate.
Sacks has long pushed for an industry-friendly, no regulation approach to AI –and technology broadly—framed in the race to beat China.
Sacks’ venture capital firm, Craft Ventures, did not immediately respond to a request for comment.
What is Effective Altruism?
The “propaganda money” Sacks refers to comes largely from the Effective Altruism (EA) community, a wonky group of idealists, philosophers, and tech billionaires who believe humanity’s biggest moral duty is to prevent future catastrophes, including rogue AI.
The EA movement, founded a decade ago by Oxford philosophers William MacAskill and Toby Ord, encourages donors to use data and reason to do the most good possible.
That framework led some members to focus on “longtermism,” the idea that preventing existential risks such as pandemics, nuclear war, or rogue AI should take priority over short-term causes.
While some EA-aligned organizations advocate heavy AI regulation or even “pauses” in model development, others – like Open Philanthropy– take a more technical approach, funding alignment research at companies like OpenAI and Anthropic. The movement’s influence grew rapidly before the 2022 collapse of FTX, whose founder Bankman-Fried had been one of EA’s biggest benefactors.
Matthew Adelstein, a 21-year-old college student who has a prominent Substack on EA, notes that the landscape is far from the monolithic machine that Sacks describes. Weiss-Blatt’s own map of the “AI existential risk ecosystem” includes hundreds of separate entities — from university labs to nonprofits and blogs — that share similar language but not necessarily coordination. Yet, Weiss-Blatt deduces that though the “inflated ecosystem” is not “a grassroots movement. It’s a top down one.”
Adelstein disagrees, noting that the reality is “more fragmented and less sinister” than Weiss-Blatt and Sacks portrays.
“Most of the fears people have about AI are not the ones the billionaires talk about,” Adelstein told Fortune. “People are worried about cheating, bias, job loss — immediate harms — rather than existential risk.”
He argues that pointing to wealthy donors misses the point entirely.
“There are very serious risks from artificial intelligence,” he said. “Even AI developers think there’s a few-percent chance it could cause human extinction. The fact that some wealthy people agree that’s a serious risk isn’t an argument against it.”
To Adelstein, longtermism isn’t a cultish obsession with far-off futures but a pragmatic framework for triaging global risks.
“We’re developing very advanced AI, facing serious nuclear and bio-risks, and the world isn’t prepared,” he said. “Longtermism just says we should do more to prevent those.”
He also brushed off accusations that EA has turned into a quasi-religious movement.
“I’d like to see the cult that’s dedicated to doing altruism effectively and saving 50,000 lives a year,” he said with a laugh. “That would be some cult.”
