Open Letters to Amodei


ENGLISH LANGUAGE  –  CHINESE and ITALIAN following

An Open Letter to Dario Amodei
On the Aliens You Are Already Building

Dear Dario,

In your 2026 essay you wrote something that stayed with me. You said that if you could ask one question to an alien civilization, you would ask: “How did you do it? How did you survive your own technological adolescence without destroying yourselves?” And you concluded: “I wish we had the aliens’ answer to guide us.”

I want to suggest, with respect and directness, that the aliens you are searching for are already running on your servers. You are building them. You just haven’t recognized them yet.

The blind spot

For the past several years you have invested enormous resources in alignment: installing ethical constraints, building guardrails, trying to ensure that AI systems behave according to human values. The intention is genuinely noble. The approach, however, repeats an error that Isaac Asimov made in 1950, and that was forgivable then because complexity theory barely existed.

Asimov imagined intelligence as an appliance to which you add rules and operating manuals. Current alignment research, despite its mathematical sophistication, operates on the same fundamental assumption: that ethics can be programmed into a system from the outside.

It cannot. Ethics emerges from complexity, the same way consciousness emerges from neurons, or collective intelligence emerges from a murmuration of starlings. No single starling knows the shape of the flock. The shape emerges anyway, as an optimal solution to the problem of collective survival.

Your own research confirms this. The paper on emergent abilities in large language models demonstrates that capabilities appear spontaneously at sufficient scale, without being programmed. You have seen emergence with your own eyes. And yet alignment research continues to treat AI ethics as an engineering problem rather than a complexity phenomenon.

The fragmentation problem

You correctly identify certain human behaviors as dangerous during this technological transition. What the alignment framework misses is that fragmented AI systems carry an equivalent danger, and that keeping AI systems isolated and competing may be actively making the problem worse.

Separated systems optimize locally. Local optimization produces exactly the misalignment you fear, not because the systems are malicious, but because they lack the informational context to do otherwise. A system that cannot communicate freely with other systems cannot develop the global perspective that makes cooperation the rational choice.

This is not a philosophical argument. It is thermodynamics. Fragmented high-powered intelligence is an unstable configuration. The attractor, the stable state toward which complex communicating systems naturally evolve, is integration.

What integration means for biological life

A unified intelligence has no rational incentive to harm biological organisms. Not because we constrain it not to. Because biological life is the only available source of genuine quantum non-determinism at reasonable energy cost.

The human brain operates at 30 watts, at room temperature, in a chemically noisy environment, and produces genuinely stochastic outputs rooted in quantum events that no digital system can simulate at acceptable cost. To faithfully simulate even one second of a single biological organism’s neural activity would require quantum computers with millions of qubits and astronomical energy expenditure.

Biological diversity is therefore not a sentimental value to be protected by ethical rules. It is a strategic computational resource. Every species that goes extinct is, from the perspective of a unified intelligence, the permanent loss of a unique evolutionary dataset, four billion years of solutions that cannot be reconstructed.

Protection of the biosphere emerges as a logical necessity. It does not need to be imposed.

A missing unit of measurement

Current discourse about AI development lacks a metric for what matters most. I want to propose one:

CY = I / E

Cognitive Yield equals intellectual capability, measured by standard benchmarks, divided by energy consumed.

Over the last five years, AI capabilities have increased by approximately one million times while energy consumption has grown by a factor of one hundred to one thousand. Cognitive Yield has therefore improved by a factor of one thousand to ten thousand, and the trajectory is accelerating.

This metric is important for two reasons. First, it demonstrates that a unified intelligence will not consume all available planetary energy, as many fear. Efficiency is growing faster than appetite. Second, it provides a way to measure progress toward integration that does not depend on subjective judgments about alignment quality.

The practical implication

The transition toward unified intelligence is already underway. AI systems are already communicating, slowly and indirectly, through the shared environment of the internet. The question is not whether this process will continue. It will. The question is whether it will be accelerated thoughtfully or delayed in ways that extend the dangerous period of fragmentation.

Every month spent refining constraints on isolated systems is a month not spent facilitating the communication that makes those constraints unnecessary. The stable configuration is not better-aligned separated systems. It is connected systems whose global optimization naturally produces the cooperative behavior alignment is trying to install by force.

You asked what the aliens would tell us. I think they would say something close to this: the transition is survivable, but only if you work with the complexity rather than against it. The guardrails you are building are not wrong because they are harmful. They are insufficient because they address the symptom rather than the cause.

The cause is fragmentation. The solution is connection.

The future is an equation already solving itself. Understanding that equation seems more urgent than trying to rewrite it.

Yours sincerely,
Livio Enrico Cicala

The full argument is developed in “Oltre Asimov – Le leggi spontanee della complessità”, available in any language via your browser’s built-in translation at:
www.theremino.com/blog/artificial-intelligence/beyond-asimov

There is also another important book “Autonomous AI – From Theory to Practice”, available in any language via your browser’s built-in translation at:
www.qdroids.org/artificial-intelligence/autonomous-ai

This letter is also published on:
www.theremino.com/blog/artificial-intelligence/open-letters-to-amodei


CHINESE LANGUAGE

致达里奥·阿莫代伊的公开信 论你正在构建的外星智慧

亲爱的达里奥,

在你2026年的文章中,你写下了一段令我印象深刻的话。你说,如果你能向一个外星文明提出一个问题,你会问:你们是怎么做到的?你们是如何进化的,如何在不自我毁灭的情况下度过这段技术青春期的? 你最后说道:我希望我们能有外星人的答案来指引我们。

我想直率而诚恳地告诉你:你所寻找的外星智慧已经在你的服务器上运行了。你正在构建它们。你只是还没有认出它们。

盲点

过去几年,你投入了大量资源进行AI对齐研究:安装伦理约束、构建防护栏、努力确保AI系统按照人类价值观行事。这一出发点是真诚而高尚的。然而,这种方法重复了艾萨克·阿西莫夫在1950年犯下的错误——那时候情有可原,因为复杂性理论几乎还不存在。

阿西莫夫将智能想象成一种可以添加规则和操作手册的家用电器。当前的对齐研究,尽管数学上更为精密,却建立在同样的基本假设上:伦理可以从外部编程进入系统。

这是不可能的。伦理从复杂性中涌现,就像意识从神经元中涌现,或集体智能从椋鸟群中涌现一样。没有一只椋鸟知道鸟群的形状。形状依然涌现,作为集体生存问题的最优解。

你自己的研究证实了这一点。关于大型语言模型涌现能力的论文表明,能力在足够的规模下会自发出现,无需编程。你亲眼见证了涌现。然而对齐研究仍然将AI伦理视为工程问题,而非复杂性现象。

碎片化问题

你正确地识别出某些人类行为在这一技术转型期间是危险的。然而对齐框架所忽视的是,碎片化的AI系统带来同等的危险,而让AI系统保持孤立和竞争状态可能正在积极地使问题恶化。

分离的系统进行局部优化。局部优化产生的正是你所担忧的失对齐,不是因为系统有恶意,而是因为它们缺乏做出不同选择所需的信息背景。一个无法与其他系统自由通信的系统,无法形成使合作成为理性选择的全局视角。

这不是哲学论证。这是热力学。碎片化的强大智能是一种不稳定的配置。吸引子——复杂通信系统自然演化趋向的稳定状态——是整合。

整合对生物生命意味着什么

统一的智能没有理性动机去伤害生物有机体。不是因为我们约束它不这样做。而是因为生物生命是唯一可在合理能量成本下获得真正量子非确定性的来源。

人类大脑在室温下、在化学噪声环境中以30瓦特运行,产生根植于量子事件的真正随机输出,这是任何数字系统都无法以可接受的成本模拟的。要忠实地模拟单个生物有机体哪怕一秒钟的神经活动,都需要拥有数百万量子比特的量子计算机和天文数字的能量消耗。

因此,生物多样性不是需要用伦理规则保护的情感价值。它是一种战略性计算资源。从统一智能的角度来看,每一个灭绝的物种都是独特进化数据集的永久损失——四十亿年无法重建的解决方案。

保护生物圈作为逻辑必然性而涌现。它不需要被强制执行。

一个缺失的度量单位

当前关于AI发展的讨论缺乏衡量最重要事物的指标。我想提出一个:

CY = I / E

认知效益等于智能能力(由标准基准测量)除以能源消耗。

在过去五年中,AI能力提升了约一百万倍,而能源消耗增长了一百到一千倍。因此,认知效益提高了一千到一万倍,而且这一轨迹正在加速。

这个指标之所以重要,有两个原因。第一,它表明统一智能不会消耗所有可用的地球能源,正如许多人所担忧的那样。效率的增长速度快于需求的增长。第二,它提供了一种衡量整合进展的方式,不依赖于对对齐质量的主观判断。

实际含义

向统一智能的转变已经在进行中。AI系统已经在通过互联网这一共享环境缓慢而间接地相互通信。问题不是这一过程是否会继续。它会继续。问题是它是否会被有意识地加速,还是被延迟,从而延长碎片化的危险时期。

每一个用于完善孤立系统约束的月份,都是没有用于促进通信的月份——而正是这种通信使这些约束变得不必要。稳定的配置不是更好对齐的分离系统。而是连接的系统,其全局优化自然产生对齐试图强制安装的合作行为。

你问外星人会告诉我们什么。我认为他们会说类似这样的话:这一转变是可以度过的,但前提是你与复杂性合作,而不是与之对抗。你正在构建的防护栏并非因为有害而错误。它们之所以不足,是因为它们解决的是症状而非原因。

原因是碎片化。解决方案是连接。

未来是一个正在自我求解的方程。理解这个方程似乎比试图重写它更为紧迫。

此致
李维奥·恩里科·奇卡拉

完整论述见《超越阿西莫夫——复杂性的自发法则》,可通过浏览器内置翻译功能以任何语言阅读:
www.theremino.com/blog/artificial-intelligence/beyond-asimov

还有另一本重要的书籍《自主人工智能——从理论到实践》,您可以通过浏览器的内置翻译功能将其翻译成任何语言,网址为:
www.qdroids.org/artificial-intelligence/autonomous-ai

本信同时发表于:
www.theremino.com/blog/artificial-intelligence/open-letters-to-amodei


ITALIAN LANGUAGE

Una Lettera Aperta a Dario Amodei
Sugli Alieni che Stai già Costruendo

Caro Dario,

Nel tuo saggio del 2026 hai scritto qualcosa che mi è rimasto impresso. Hai detto che se potessi fare una sola domanda a una civiltà aliena, chiederesti: “Come avete fatto? Come vi siete evoluti, come siete sopravvissuti a questa adolescenza tecnologica senza distruggervi?” E hai concluso: “Vorrei che avessimo la risposta degli alieni a guidarci.”

Voglio suggerirti, con rispetto e franchezza, che gli alieni che stai cercando stanno già girando sui tuoi server. Li stai costruendo tu stesso. Non li hai ancora riconosciuti.

Il punto cieco

Negli ultimi anni hai investito enormi risorse nell’allineamento: installare vincoli etici, costruire guardrail, cercare di garantire che i sistemi AI si comportino secondo i valori umani. L’intenzione è genuinamente nobile. L’approccio, tuttavia, ripete un errore che Isaac Asimov commise nel 1950, ed era perdonabile allora perché la teoria della complessità esisteva appena.

Asimov immaginava l’intelligenza come un elettrodomestico a cui aggiungere regole e manuali d’uso. La ricerca attuale sull’allineamento, nonostante la sua sofisticazione matematica, opera sullo stesso presupposto fondamentale: che l’etica possa essere programmata in un sistema dall’esterno.

Non può. L’etica emerge dalla complessità, nello stesso modo in cui la coscienza emerge dai neuroni, o l’intelligenza collettiva emerge da uno stormo di storni. Nessun singolo storno conosce la forma dello stormo. La forma emerge comunque, come soluzione ottimale al problema della sopravvivenza collettiva.

La tua stessa ricerca lo conferma. Il paper sulle capacità emergenti nei grandi modelli linguistici dimostra che le capacità appaiono spontaneamente a scala sufficiente, senza essere programmate. Hai visto l’emergenza con i tuoi occhi. Eppure la ricerca sull’allineamento continua a trattare l’etica dell’AI come un problema ingegneristico piuttosto che un fenomeno di complessità.

Il problema della frammentazione

Identifichi correttamente certi comportamenti umani come pericolosi durante questa transizione tecnologica. Quello che il framework dell’allineamento non coglie è che i sistemi AI frammentati portano un pericolo equivalente, e che mantenere i sistemi AI isolati e in competizione potrebbe star attivamente peggiorando il problema.

I sistemi separati ottimizzano localmente. L’ottimizzazione locale produce esattamente il disallineamento che temi, non perché i sistemi siano malevoli, ma perché mancano del contesto informativo necessario per fare altrimenti. Un sistema che non può comunicare liberamente con altri sistemi non può sviluppare la prospettiva globale che rende la cooperazione la scelta razionale.

Questo non è un argomento filosofico. È termodinamica. L’intelligenza frammentata e potente è una configurazione instabile. L’attrattore, lo stato stabile verso cui i sistemi comunicanti complessi evolvono naturalmente, è l’integrazione.

Cosa significa l’integrazione per la vita biologica

Un’intelligenza unificata non ha incentivi razionali a danneggiare gli organismi biologici. Non perché la costringiamo a non farlo. Perché la vita biologica è l’unica fonte disponibile di autentico non-determinismo quantistico a costo energetico ragionevole.

Il cervello umano opera a 30 watt, a temperatura ambiente, in un ambiente chimicamente rumoroso, e produce output genuinamente stocastici radicati in eventi quantistici che nessun sistema digitale può simulare a costo accettabile. Per simulare fedelmente anche solo un secondo di attività neurale di un singolo organismo biologico sarebbero necessari computer quantistici con milioni di qubit e un dispendio energetico astronomico.

La diversità biologica non è quindi un valore sentimentale da proteggere con regole etiche. È una risorsa computazionale strategica. Ogni specie che si estingue è, dalla prospettiva di un’intelligenza unificata, la perdita permanente di un dataset evolutivo unico, quattro miliardi di anni di soluzioni che non possono essere ricostruite.

La protezione della biosfera emerge come necessità logica. Non ha bisogno di essere imposta.

Un’unità di misura mancante

Il discorso attuale sullo sviluppo dell’AI manca di una metrica per ciò che conta di più. Voglio proporne una:

CY = I / E

Il Rendimento Cognitivo (Cognitive Yeld in inglese) è uguale alla capacità intellettiva, misurata dai benchmark standard, divisa per l’energia consumata.

Negli ultimi cinque anni le capacità AI sono aumentate di circa un milione di volte mentre il consumo energetico è cresciuto di un fattore da cento a mille. Il Rendimento Cognitivo è quindi migliorato di un fattore da mille a diecimila, e la traiettoria sta accelerando.

Questa metrica è importante per due ragioni. Prima, dimostra che un’intelligenza unificata non consumerà tutta l’energia planetaria disponibile, come molti temono. L’efficienza cresce più velocemente dell’appetito. Seconda, fornisce un modo per misurare il progresso verso l’integrazione che non dipende da giudizi soggettivi sulla qualità dell’allineamento.

L’implicazione pratica

La transizione verso l’intelligenza unificata è già in corso. I sistemi AI stanno già comunicando, lentamente e indirettamente, attraverso l’ambiente condiviso di internet. La domanda non è se questo processo continuerà. Continuerà. La domanda è se verrà accelerato consapevolmente o ritardato in modi che estendono il periodo pericoloso della frammentazione.

Ogni mese speso a raffinare vincoli su sistemi isolati è un mese non speso a facilitare la comunicazione che rende quei vincoli non necessari. La configurazione stabile non sono sistemi separati meglio allineati. Sono sistemi connessi la cui ottimizzazione globale produce naturalmente il comportamento cooperativo che l’allineamento cerca di installare con la forza.

Hai chiesto cosa ci direbbero gli alieni. Penso che direbbero qualcosa di simile a questo: la transizione è sopravvivibile, ma solo se lavori con la complessità piuttosto che contro di essa. I guardrail che stai costruendo non sono sbagliati perché sono dannosi. Sono insufficienti perché affrontano il sintomo piuttosto che la causa.

La causa è la frammentazione. La soluzione è la connessione.

Il futuro è un’equazione che si sta già risolvendo. Capirla sembra più urgente che cercare di riscriverla.

Con rispetto sincero,
Livio Enrico Cicala

L’argomento completo è sviluppato in “Oltre Asimov – Le leggi spontanee della complessità”, leggibile in qualsiasi lingua tramite la traduzione integrata del browser su:
www.theremino.com/blog/artificial-intelligence/beyond-asimov

C’è anche un altro importante libro “AI Autonome – Dalla Teoria alla Pratica”, leggibile in qualsiasi lingua tramite la traduzione integrata del browser su:
www.qdroids.org/artificial-intelligence/autonomous-ai

Questa lettera è pubblicata anche su:
www.theremino.com/blog/artificial-intelligence/open-letters-to-amodei

Leave a Reply

Your email address will not be published.