Recensione di Claude Opus 4.7: È all'altezza del titolo di modella più forte?
Titolo originale: "L'Opus 4.7 non è mai stato concepito per essere il 'modello più potente': "Tutti erano entusiasti della velocità di Claude, ma non riescono a stare al passo con il ritmo di Anthropic"
Fonte originale: Silicon Pro
Il 16 aprile 2026, Anthropic ha lanciato ufficialmente Claude Opus 4.7, a poco più di due mesi dalla versione precedente, Opus 4.6.
Dopo una recente serie di aggiornamenti intensi e frenetici relativi a prodotti e modelli, la presentazione del nuovo modello da parte di Anthropic ha naturalmente suscitato grande entusiasmo. Sono certo che abbiate già letto molte recensioni sul primo modello, in cui tutti definiscono l’Opus 4.7 il «modello più potente», facendo sì che espressioni come «l’umanità è spacciata» e «allarme disoccupazione» tornino ancora una volta a far scalpore.
Ma vediamo un po' cosa ha effettivamente pubblicato Anthropic.
Il tono di questa versione è in realtà piuttosto insolito.
Nel comunicato, Anthropic ha dichiarato espressamente: Le funzionalità di Opus 4.7 non sono all'altezza di quelle di Claude Mythos Preview, dato che Mythos è disponibile solo per alcuni partner come Apple, Google, Microsoft e Nvidia, e non è accessibile agli sviluppatori e agli utenti comuni.
Inoltre, ciò che è ancora più degno di nota rispetto a questa retorica è che non solo è meno potente del leggendario Mythos, ma è addirittura inferiore in alcune caratteristiche fondamentali rispetto al modello della generazione precedente.
Un valore anomalo nella tabella delle prestazioni di Opus 4.7: Il benchmark MRCR v2 @1M per i contesti lunghi è sceso dal 78,3% di Opus 4.6 al 32,2%, con un crollo di 46 punti percentuali.
È molto raro che una nuova versione di un modello di punta riduca della metà le proprie prestazioni di punta.
E questa è stata una scelta che ha fatto di propria iniziativa.
Così, mentre tutti continuano a lodare ciecamente ciascuno dei propri modelli definendoli i "più potenti", in realtà stanno rimanendo indietro rispetto al ritmo imposto proprio da Anthropic!

Non si preoccupa nemmeno di affrontare la questione dell'autolavaggio
L'Opus 4.7 era un modello che non è mai stato concepito per essere il "modello più potente". Si è trattato di un lancio caratterizzato da evidenti compromessi, un approccio "di precisione", diverso dalle varie strategie di lancio adottate in passato da altri produttori di modelli di punta. Si tratta inoltre di una nuova direzione verso cui i principali produttori si stanno orientando collettivamente oggi, poiché ritengono chiaramente che il "grande balzo in avanti" del modello stesso non sia più sostenibile: Anthropic si sta in qualche misura avvicinando alle strategie di lancio di aziende come Apple e Microsoft nella fase di commercializzazione dei loro prodotti ormai molto maturi.
Questo potrebbe essere il vero significato del 4.7.
1. Competenze di programmazione: Un miglioramento concreto dietro i numeri
Per comprendere meglio questi cambiamenti, la cosa migliore è naturalmente quella di esaminare attentamente, innanzitutto, quali siano stati i risultati concreti ottenuti questa volta.
Ecco una panoramica completa della versione Opus 4.7: cosa è migliorato, cosa è peggiorato, i commenti degli sviluppatori in prima persona e se è necessaria la migrazione.
Annuncio ufficiale: https://www.anthropic.com/news/claude-opus-4-7
Le prestazioni di codifica sono il punto forte di questa versione di Opus 4.7.

Il tasso di verifica SWE-bench (500 problemi reali su GitHub, che richiedono ai modelli di generare patch in grado di superare i test) è passato dall'80,8% di Opus 4.6 all'87,6% di Opus 4.7, con un miglioramento di quasi 7 punti percentuali, posizionandosi così al primo posto tra i modelli disponibili al pubblico. Rispetto all'80,6% di Gemini 3.1 Pro, la differenza è notevole.
SWE-bench Pro è una versione più impegnativa, che copre l'intero ciclo di sviluppo ingegneristico in quattro linguaggi di programmazione. L'Opus 4.7 è balzato dal 53,4% al 64,3%, con un aumento di 11 punti percentuali. Rispetto al 57,7% di GPT-5.4 e al 54,2% di Gemini 3.1 Pro, Opus 4.7 è nettamente in vantaggio in questo benchmark.
CursorBench è un pratico benchmark sviluppato da Cursor, progettato specificamente per valutare la qualità dell'assistenza alla programmazione offerta da un modello in un ambiente IDE reale. Opus 4.6 ha ottenuto il 58%, mentre Opus 4.7 è balzato al 70%, con un miglioramento di 12 punti percentuali. Michael Truell, cofondatore di Cursor, ha dichiarato nel comunicato ufficiale: «Si tratta di un notevole passo avanti in termini di funzionalità, che garantisce una maggiore capacità di ragionamento creativo nell'affrontare le sfide».
Dati verificati dai partner:
· Rakuten: Il numero di attività di produzione gestite da Opus 4.7 è triplo rispetto a quello di Opus 4.6, con aumenti a doppia cifra nei punteggi relativi alla qualità del codice e alla qualità dei test
· Fabbrica: Il tasso di successo delle attività è aumentato del 10-15%, riducendo in modo significativo gli insuccessi durante la formazione
· Cognition (l'azienda di Devin): Il modello "può funzionare ininterrottamente per ore senza bisogno di scollegarlo"
· CodeRabbit: Il tasso di richiamo è aumentato di oltre il 10%, «leggermente più velocemente rispetto alla modalità xhigh di GPT-5.4»
· Bullone: Nelle operazioni di compilazione delle applicazioni più lunghe, Opus 4.7 ha superato Opus 4.6, «registrando un miglioramento fino al 10% nel caso migliore, senza i problemi di regressione riscontrati in passato»
· Terminal-Bench 2.0: Opus 4.7 ha affrontato tre compiti che nessun modello Claude precedente (né alcun concorrente) era in grado di gestire, tra cui uno che richiedeva un ragionamento su più file tra diversi repository per risolvere una condizione di competizione

Questi dati indicano una sola direzione: Opus 4.7 ha dimostrato un notevole miglioramento nell'esecuzione di attività di programmazione complesse, di lunga durata, che coinvolgono più file e richiedono il mantenimento del contesto. Questo risolve direttamente le principali lamentele degli utenti riguardo a Opus 4.6 negli ultimi due mesi: le attività che si interrompono a metà dell'esecuzione e i problemi legati alla gestione di più file.
II. Capacità visiva: Il miglioramento più sottovalutato di questa versione
Il benchmark di precisione visiva XBOW è balzato dal 54,5% al 98,5%. Non si tratta di un miglioramento graduale, bensì di un salto di qualità pari a una ricostruzione.
Modifiche specifiche alle specifiche:
· La risoluzione massima delle immagini è passata da circa 1,15 milioni di pixel (lato più lungo: 1.568 pixel) a circa 3,75 milioni di pixel (lato più lungo: 2.576 pixel), oltre tre volte quella della generazione precedente
· Le coordinate del modello ora corrispondono esattamente ai pixel effettivi, eliminando la necessità di convertire manualmente i fattori di scala nelle attività di visione artificiale
· Benchmark CharXiv sul ragionamento visivo: Senza strumenti 82,1%, Con strumenti 91,0%

Quali sono le implicazioni concrete di tutto ciò?
Per il team responsabile dei prodotti informatici, questo aggiornamento potrebbe rivelarsi decisivo. All'epoca di Opus 4.6, l'uso del computer era in una fase in cui "era possibile eseguire una demo, ma non era ancora pronto per la produzione": il tasso di clic errati era troppo elevato e imprevedibile. Un'accuratezza visiva del 98,5% significa che questa funzionalità ha raggiunto, per la prima volta, la soglia necessaria per un'implementazione affidabile. Diversi blog tecnologici hanno affermato chiaramente nelle loro recensioni: se avevate rimandato l'acquisto del vostro computer a causa dell'elevato tasso di clic mancati in Opus 4.6, la versione 4.7 ha risolto questo problema.
Commenti di prima mano su Reddit (r/ClaudeAI): Alcuni utenti hanno sottolineato che «il miglioramento della capacità visiva è fondamentale». Ho già realizzato molti progetti all'avanguardia, cercando di far migliorare il modello in modo iterativo attraverso un ciclo di feedback visivo, ma il risultato è sempre stato caotico. "Non vedo l'ora di scoprire come la versione 4.7 risolverà questo problema."
Oltre all'uso del computer, altri ambiti in cui questa tecnologia offre vantaggi sono: l'analisi delle scansioni di documenti (capacità di leggere caratteri più piccoli e riconoscere dettagli più sottili nei grafici), l'interpretazione degli screenshot, le applicazioni per dashboard e l'elaborazione di file PDF complessi.
Considerazioni sui costi: Le immagini ad alta risoluzione consumano più gettoni. Se il tuo scenario applicativo non richiede un elevato livello di dettaglio delle immagini, si consiglia di ridurre la risoluzione prima dell'inserimento.

III. La battuta d'arresto più grave: Compressione del contesto esteso
MRCR v2 @1M (Recall su contesto lungo con un milione di token):
· 4,6: 78,3%
· 4,7: 32,2%
Un crollo di 46 punti percentuali, passando da quasi l'80% a un terzo.
Questo calo è quasi senza precedenti nella storia delle versioni del modello di punta. MRCR v2 era una funzionalità fortemente promossa da Anthropic nell'era di Opus 4.6 — all'epoca, le parole esatte di Anthropic erano: «Si è verificato un cambiamento qualitativo di portata tale da rendere il modello effettivamente utilizzabile». Con la versione 4.7, questo «cambiamento qualitativo» è scomparso del tutto.
Perché sta succedendo questo? Il tokenizzatore è stato modificato.
Opus 4.7 utilizza un nuovo tokenizzatore e, a parità di testo in ingresso, il numero di token risultanti è ora compreso tra circa 1,0 e 1,35 volte quello precedente, con un moltiplicatore esatto che varia a seconda del tipo di contenuto.
Le conseguenze immediate sono:
· La finestra di contesto nominale da 200K/1M è ancora presente, ma ora la stessa quantità di testo occupa meno spazio.
· Il consumo effettivo di token nei flussi di lavoro degli agenti con attività di lunga durata è aumentato di circa il 35%.
· Il prezzo rimane invariato (5 $ in entrata, 25 $ in uscita per ogni milione di token), ma il costo effettivo di utilizzo è aumentato.
Secondo la dichiarazione ufficiale di Anthropic, il nuovo tokenizer «ha migliorato l'efficienza dell'elaborazione del testo», ma i dati dei benchmark mostrano un significativo peggioramento in scenari con contesti lunghi.
Anche le funzionalità di ricerca hanno subito un peggioramento:
· BrowseComp (ricerca approfondita di informazioni sul Web): Opus 4.6 era all'83,7%, mentre Opus 4.7 è al 79,3%.
· GPT-5.4 Pro ha ottenuto un punteggio dell'89,3% in questo ambito, Gemini 3.1 Pro dell'85,9%, mentre Opus 4.7 si colloca attualmente all'ultimo posto tra i principali modelli concorrenti.
La ricerca e la gestione di testi lunghi sono proprio gli scenari più comuni per molti utenti aziendali.
Commenti degli sviluppatori raccolti direttamente da Hacker News (post con 275 voti positivi, 215 commenti, fonte: (Discussione su HN):
"È stato proprio spegnere il pensiero adattivo e alzare manualmente il livello di impegno a riportarmi alle mie prestazioni di base. Frasi come «nei nostri test interni sembra funzionare bene» non bastano più; tutti riscontrano lo stesso problema. «Nella versione 4.7, i riepiloghi dei token di ragionamento in formato leggibile non sono più inclusi di default nell'output; per ottenerli nuovamente è necessario aggiungere display: summarized alla richiesta API.»
Si tratta di problemi segnalati da utenti reali. Tuttavia, si tratta anche di una scelta compiuta in modo proattivo da Anthropic.
Quattro, nuovo tratto comportamentale: Autovalutazione e maggiore aderenza alle istruzioni
Una dichiarazione degna di nota contenuta nell'annuncio ufficiale di Opus 4.7 è la seguente: Il modello verifica la validità dei propri dati prima di riportare i risultati.
Durante i test, il team tecnico di Hex ha fornito un esempio concreto: in caso di dati mancanti, Opus 4.7 segnalerà correttamente che «i dati non esistono», invece di fornire una risposta apparentemente plausibile ma in realtà inventata — una trappola in cui Opus 4.6 sarebbe caduto. La valutazione della piattaforma fintech Block al riguardo è stata la seguente: "È in grado di individuare i propri errori logici durante la fase di pianificazione, accelerando così l'esecuzione e dimostrando un netto miglioramento rispetto al precedente modello Claude."
Tuttavia, l'autoconferma ha determinato un altro cambiamento comportamentale correlato: Opus 4.7 interpreta le istruzioni in modo più letterale.
Ciò comporta un rischio di migrazione significativo. Se hai impostato con cura i prompt per Opus 4.6, la versione 4.7 potrebbe non "leggere tra le righe" come faceva la 4.6, ma seguire rigorosamente il significato letterale che hai scritto. Anthropic lo ha espressamente indicato nella guida ufficiale alla migrazione e ha raccomandato di eseguire test di regressione sui prompt principali prima di implementare la versione 4.7.
Un consiglio pratico dal CTO di Hex: Per quanto riguarda il livello di sforzo ridotto, Opus 4.7 offre prestazioni più o meno equivalenti a quelle del livello di sforzo medio di Opus 4.6.
5. Meccanismo di controllo del ragionamento: xhigh, budget delle attività e /ultrareview
Si è verificato un evento con Opus 4.6 che ha intaccato la fiducia degli utenti: il 9 febbraio è stata attivata la modalità "adaptive thinking" come impostazione predefinita e il 3 marzo la profondità di ragionamento predefinita ufficiale di Claude Code è stata ridotta dal livello massimo a quello medio, adducendo la necessità di "bilanciare intelligenza, latenza e costi". Questo evento, soprannominato «l'intelligence gate», ha suscitato grande interesse dopo che un dirigente di AMD ne ha messo in discussione la validità su GitHub.
La risposta di Opus 4.7 è stata quella di offrire agli utenti un controllo più preciso sulla profondità del ragionamento.
Livello di difficoltà elevato: Un nuovo livello di intensità del ragionamento, situato tra i livelli "alto" e "massimo" già esistenti. Claude Code ha ora aggiornato tutte le impostazioni predefinite previste a «xhigh».
Tuttavia, la comunità degli sviluppatori ha una domanda diretta riguardo a xhigh, come ha sottolineato un utente di Reddit: "Opus 4.6 utilizza l'impostazione predefinita "medium", mentre la versione 4.7 utilizza l'impostazione predefinita "xhigh". Sono curioso di sapere quali siano le ragioni alla base di questa decisione, perché aumentare il livello di impegno comporta ovviamente un maggiore consumo di gettoni.
In altre parole, quella che gli utenti considerano una soluzione per "restituire il controllo all'utente" è in realtà un aumento del livello predefinito, il che significa che la stessa operazione richiede ora l'utilizzo di un numero maggiore di token. Se si aggiungono le modifiche al tokenizer, si tratta di un doppio aumento dei costi.
Budget delle attività (in versione beta pubblica): Un meccanismo simbolico di controllo del budget per attività di lunga durata. Gli sviluppatori stabiliscono un budget totale in token (minimo 20.000) e il modello è in grado di visualizzare dinamicamente il saldo residuo durante l'esecuzione per allocare le risorse di conseguenza. Questo serve a evitare che il processo si interrompa a metà a causa di un superamento del limite di token e a prevenire inutili sprechi di risorse di calcolo.
Claude Code Nuovo comando /ultrareview: Una sessione speciale di revisione del codice incentrata sulla correzione dei bug e sulle questioni di progettazione, con una revisione approfondita una volta al mese; gli utenti Pro e Max hanno diritto a 3 sessioni gratuite al mese.
Modalità automatica disponibile per tutti gli utenti: Precedentemente disponibile solo nel piano Enterprise, ora accessibile anche agli utenti Max. In modalità automatica, Claude è in grado di prendere decisioni in modo autonomo, riducendo la necessità di interrompere gli utenti per richiedere loro un input. Boris Cherny, responsabile del team Claude Code, ha dichiarato: "Assegna un compito a Claude, lascialo eseguire e torna a controllare i risultati verificati."
Sezione 6: Panoramica dei benchmark - Risultati positivi e negativi
Di seguito sono riportati i principali dati di riferimento attualmente disponibili (fonte: Scheda ufficiale del sistema Anthropic e valutazioni dei partner).
Programmazione e ingegneria (Opus 4.7 Leading)

Visione e multimodalità (Opus 4.7: leadership significativa)

Lavoro intellettuale (Opus 4.7 Leadership)

Valutazione completa (Opus 4.7 fa un netto passo avanti)

Ragionamento generale (i tre elementi fondamentali sono sostanzialmente in linea tra loro)

Questo parametro di riferimento ha raggiunto la saturazione e non rappresenta più un efficace punto di riferimento in termini di competitività.
Tipo di attività di ricerca (GPT-5.4 in primo piano, Opus 4.7 in secondo piano)

Contesto approfondito (Opus 4.7 registra un netto peggioramento)

Sintesi della logica di selezione del modello: Nei settori della programmazione, dell'ingegneria, della visione artificiale e delle attività di analisi finanziaria e giuridica, Opus 4.7 presenta un netto vantaggio; per le attività ad alta intensità di ricerca e il recupero di informazioni da reti aperte, GPT-5.4 risulta più performante; negli scenari che prevedono contesti di testo estesi, Opus 4.7 resta molto indietro rispetto al suo predecessore, e questo è l'aspetto più preoccupante.
Sezione 7: Barriera di sicurezza – Una pietra miliare per Mythos
Questa sezione viene spesso trascurata perché considerata una "clausola standard in materia di sicurezza" nei comunicati stampa, ma è fondamentale per comprendere l'attuale strategia di Anthropic.
Il 7 aprile, Anthropic ha annunciato il Progetto Glasswing: la versione di anteprima di Claude Mythos è stata resa disponibile a nove partner, tra cui Apple, Google, Microsoft, Nvidia, Amazon, Cisco, CrowdStrike, JPMorgan Chase e Broadcom, specificamente per scenari di sicurezza informatica difensiva.
Mythos è il modello più potente realizzato finora da Anthropic. Secondo The Hacker News, è in grado di individuare autonomamente vulnerabilità zero-day, individuando migliaia di vulnerabilità finora sconosciute nei principali sistemi operativi e browser. Tuttavia, proprio a causa di questa funzionalità, si ritiene che comporti notevoli rischi di uso improprio e pertanto non è stata resa pubblica.
Opus 4.7 è il primo prototipo di questa linea. Durante la fase di addestramento, Anthropic ha ridotto in modo significativo la capacità del modello di sferrare attacchi alla sicurezza informatica (cercando al contempo di preservarne le capacità difensive) e ha implementato un sistema di barriera in tempo reale per individuare e bloccare automaticamente le richieste ad alto rischio in materia di sicurezza informatica. L'annuncio originale recitava: "Faremo tesoro dell'esperienza acquisita con l'implementazione effettiva di Opus 4.7 per valutare l'efficacia di questa barriera prima di decidere se estenderla ai modelli di livello Mythos."
In altre parole, ogni sviluppatore che utilizza Opus 4.7 sta aiutando Anthropic a mettere a punto il sistema di sicurezza.
Recensione di Gizmodo: Questo lancio adotta una "strategia di marketing audace, promuovendo in modo proattivo il nuovo modello come 'meno versatile rispetto ad altre opzioni'", cosa estremamente rara nei lanci dei modelli di punta.
Se i professionisti della sicurezza hanno bisogno di utilizzare Opus 4.7 per test di penetrazione legittimi, ricerche sulle vulnerabilità o attività di red teaming, devono presentare domanda per aderire al Cyber Verification Program.
8. Prezzi e migrazione: Il tasso nominale rimane invariato, mentre il costo reale aumenta
Prezzi: Input a 5 $ per milione di token, output a 25 $ per milione di token, come nell'Opus 4.6. L'ID del modello API è claude-opus-4-7. Le piattaforme supportate includono Claude API, Amazon Bedrock, Google Cloud Vertex AI e Microsoft Foundry, oltre a GitHub Copilot.
Tuttavia, come accennato in precedenza, la modifica al tokenizer comporta ora la generazione di un numero di token circa 1,0-1,35 volte superiore a parità di input; se a ciò si aggiungono i token di riflessione aggiuntivi generati a livelli di sforzo predefiniti più elevati, il costo effettivo di un flusso di lavoro con un agente per attività lunghe potrebbe risultare 2-3 volte superiore a quello di Opus 4.6 a impostazioni equivalenti.
Anthropic ha inoltre ridotto il TTL della cache di Claude Code da un'ora a cinque minuti: ciò significa che se ci si allontana dal computer per più di cinque minuti e poi si ritorna, la cache del contesto scadrà, rendendo necessario un ricaricamento, il che accelera il consumo dei token. Nella comunità di Reddit molti utenti si sono lamentati del fatto che «la quota si esaurisce in un batter d'occhio».
Elenco delle modifiche sostanziali per gli utenti esistenti di Opus 4.6:
1. Il parametro «Extended Thinking Budgets» è stato rimosso; se viene passato, verrà restituito un errore 400; si consiglia invece di utilizzare la modalità di ragionamento adattivo
2. I parametri di campionamento quali temperatura, top_p e top_k sono stati rimossi; per controllare il comportamento dell'output è necessario utilizzare i prompt
3. Rispetto più rigoroso delle istruzioni letterali - Il prompt ottimizzato per Opus 4.6 deve essere sottoposto a un nuovo test; non è consentito lo scambio diretto dell'ID del modello.
4. Le modifiche apportate al tokenizer hanno alterato il conteggio dei token. Si consiglia di testare prima i campioni sul traffico reale prima di procedere con la migrazione completa.
5. L'output predefinito non include più i riepiloghi dei token di inferenza. Per visualizzarli, devi impostare esplicitamente `display: summarized`.
Buone pratiche: La guida ufficiale alla migrazione di Anthropic consiglia di eseguire Opus 4.7 su un traffico di produzione rappresentativo prima del passaggio definitivo, confrontando il consumo di token e la qualità delle attività prima di prendere una decisione.
La precisione nell'esecuzione può essere terrificante.
Opus 4.7 è un aggiornamento mirato che offre chiari vantaggi, ma comporta anche notevoli compromessi. Inoltre, sono tutti progettati dalla stessa Anthropic e, in gran parte, sei tu a doverne sostenere i costi.
Il lato positivo dei progressi di questa modella:
· L'87,6% su SWE-bench Verified, il 64,3% su SWE-bench Pro, il 70% su CursorBench e un aumento di tre volte nelle attività di produzione di Rakuten: questi sono i miglioramenti tangibili nelle prestazioni di programmazione in un ambiente di produzione
· Miglioramento delle capacità visive (XBOW 54,5% → 98,5%, risoluzione triplicata, mappatura 1:1 pixel-perfect), che consente per la prima volta l'utilizzo del computer per un'implementazione affidabile
· Livello xhigh, budget per le attività, /ultrareview - una risposta esplicita alla barriera rappresentata dall’«appiattimento»
· Il 90,9% nel settore dei grandi studi legali, il 64,4% nel settore finanziario, con un netto primato nelle attività che richiedono competenze specialistiche, come le questioni giuridico-finanziarie
Aspetti che sono stati abbandonati:
· Il valore MRCR v2 @1M è sceso dal 78,3% al 32,2%, riducendo quasi della metà le capacità di elaborazione di contesti lunghi
· BrowseComp scende dall'83,7% al 79,3%; le sue capacità di ricerca vengono superate sia da GPT-5.4 che da Gemini 3.1 Pro
· Modifiche al tokenizer + aumento dello sforzo predefinito + riduzione della durata della cache = triplo aumento occulto dei prezzi
· Il Mythos rimane stabile, il che indica che Anthropic ha in mano carte ancora più forti, ma non le sta giocando
Questa versione è la più autentica finora, non il "modello più potente" né il "modello pubblico più potente", bensì: un'iterazione caratterizzata da chiari compromessi.
Secondo le ultime notizie, Claude Code ha già raggiunto i 2,5 miliardi di dollari di fatturato annuo nel mese di febbraio. Opus 4.7 rappresenta il passo successivo in questa tradizione online.
La codifica e la visione sono aggiunte, il contesto esteso e la ricerca sono sottrazioni; il prezzo rimane nominale, ma il conto sta aumentando. Anthropic sta lavorando a un aggiustamento dell'equilibrio con Opus 4.7, sia per ovviare alla perdita di fiducia causata da Opus 4.6, sia per condurre un esercizio di sicurezza in condizioni reali in vista della futura diffusione su più ampia scala dei modelli di livello Mythos. Ma soprattutto, punta a sfruttare appieno la sua attuale posizione di leadership, trasformando la preferenza degli utenti per i suoi prodotti in un’inerzia dalla quale non si può sfuggire nemmeno attraverso generazioni di prodotti imperfetti ma indispensabili, per poi creare quel tipo di esperienza utente coinvolgente, caratterizzata da un rapporto di amore-odio e dotata di un vero valore commerciale, che aziende mature come Apple sono riuscite a realizzare, e costruire un ecosistema di vero valore.
Potrebbe interessarti anche

Previsione del Prezzo di Ethereum: Il Triangolo Dorato potrebbe Rendere ETH Parabolico
Le analisi di mercato mostrano che Ethereum attualmente si trova poco sotto i $2,200, con segnali di una…

Un Hacker Ha Creato un Miliardo di Token DOT Attraverso il Bridge di Polkadot
Un attacco al bridge Polkadot ha causato un crollo del 7% del prezzo di DOT in pochi minuti.…

Previsione del Prezzo Bitcoin: Arthur Hayes su AI, Prezzo del Petrolio e Guerra Contro le Cripto
Arthur Hayes prevede un prezzo del Bitcoin tra $500K e $750K entro la fine del 2026, ma l’AI…

Rapporto approfondito DWF: L'intelligenza artificiale supera gli esseri umani nell'ottimizzazione dello yield farming nella DeFi, ma le transazioni complesse restano ancora indietro di 5 volte

I trucchi finanziari del gigante delle criptovalute Kraken

Quando i market maker proattivi iniziano a prendere l'iniziativa

# Outline
H1: Whale Unstake Transazioni e l’Impatto sul Mercato HYPE H2: Chi è il Whale Di Riferimento? – H3:…

# Outline
H1: ListaDAO Confirms Safety of Its Contracts Amid Vulnerability Concerns H2: Dichiarazione di ListaDAO sulla Sicurezza dei Contratti…

# Outline
H1: Allerta sui Ledger Contraffatti Venduti su Piattaforme Cinesi – H2: Il Pericolo delle Imitazioni Ledger – H3:…

# Outline
H1: Attacco massiccio: Drift Protocol perde 285 milioni di dollari H2: Fatti salienti dell’incidente H3: L’attacco e le…

Previsione del Prezzo di Ethereum: Il Triangolo Dorato potrebbe Rendere ETH Parabolico
Le analisi di mercato mostrano che Ethereum attualmente si trova poco sotto i $2,200, con segnali di una…

Un Hacker Ha Creato un Miliardo di Token DOT Attraverso il Bridge di Polkadot
Un attacco al bridge Polkadot ha causato un crollo del 7% del prezzo di DOT in pochi minuti.…

Previsione del Prezzo Bitcoin: Arthur Hayes su AI, Prezzo del Petrolio e Guerra Contro le Cripto
Arthur Hayes prevede un prezzo del Bitcoin tra $500K e $750K entro la fine del 2026, ma l’AI…

Il consulente di criptovalute della Casa Bianca Witt afferma che altri ostacoli al Clarity Act vengono superati
Patrick Witt, consulente principale della Casa Bianca, ha affermato che il compromesso sul rendimento dei stablecoin sta facilitando…

“Penso che siamo arrivati”, Ripple CEO Brad Garlinghouse sulla CLARITY Act
Brad Garlinghouse, CEO di Ripple, è ottimista riguardo al passaggio imminente della CLARITY Act. L’impasse tra banche e…

Il CEO di Ripple Cambia Tono sul CLARITY Act
Brad Garlinghouse, CEO di Ripple, ha recentemente moderato il suo ottimismo riguardo al CLARITY Act, pur rimanendo fiducioso…

Il disegno di legge sulla chiarezza delle criptovalute ha il 30% di possibilità di passare quest’anno, afferma Hammond di Wintermute
Ron Hammond di Wintermute stima che il disegno di legge sulla chiarezza abbia una probabilità del 30% di…

X: Il capo prodotto propone di costruire “qualcosa” per affrontare la crisi crypto
X ha iniziato una massiccia purga di account bot in aprile, con un focus sullo spam legato alle…
Previsione del Prezzo di Ethereum: Il Triangolo Dorato potrebbe Rendere ETH Parabolico
Le analisi di mercato mostrano che Ethereum attualmente si trova poco sotto i $2,200, con segnali di una…
Un Hacker Ha Creato un Miliardo di Token DOT Attraverso il Bridge di Polkadot
Un attacco al bridge Polkadot ha causato un crollo del 7% del prezzo di DOT in pochi minuti.…
Previsione del Prezzo Bitcoin: Arthur Hayes su AI, Prezzo del Petrolio e Guerra Contro le Cripto
Arthur Hayes prevede un prezzo del Bitcoin tra $500K e $750K entro la fine del 2026, ma l’AI…





