Apple Siri: ecco come l'assistente di Apple farà il suo grande passo con l'intelligenza artificiale

Ultimo aggiornamento: Febbraio 12 2026
Autore: alexandra
  • Apple sta riprogettando Siri sfruttando Apple Intelligence e modelli come Gemini, con un lancio graduale in iOS 26.4, 26.5 e 27.
  • I primi miglioramenti chiave riguardano il contesto personale, la consapevolezza dello schermo e le azioni tra app tramite App Intents.
  • La roadmap culmina in un Siri simile a un chatbot, capace di lunghe conversazioni, generazione di contenuti e controllo approfondito del sistema.
  • La rigida privacy e la compatibilità limitata con i dispositivi recenti determineranno quali utenti potranno sfruttare appieno i vantaggi della nuova Siri.

Assistente Apple Siri

Se hai mai pensato che Siri è rimasto indietro rispetto a ChatGPT o GeminiNon sei il solo. Per anni, l'assistente di Apple si è rivelato molto utile per le attività rapide, ma poco lungimirante quando gli abbiamo chiesto qualcosa di più complesso, soprattutto se confrontato con l'ultima generazione di chatbot.

Ora siamo a un punto di svolta: Apple sta reinventando Siri affidandosi a L'intelligenza di Apple e in modelli come Google GeminiCon una roadmap che si estende a diverse versioni di iOS (26.4, 26.5 e 27) e che interessa anche iPadOS, macOS e CarPlay, non si tratta di un cambiamento da poco: tocca la privacy, l'architettura interna, il modo in cui viene utilizzato l'iPhone e persino il rapporto di Apple con gli altri giganti dell'intelligenza artificiale.

Cos'è Siri oggi e perché Apple lo sta riprogettando?

Siri è nato come assistente virtuale esclusivo dell'ecosistema Apple.Disponibile su iOS, macOS, watchOS e tvOS, utilizza l'elaborazione del linguaggio naturale per comprendere le tue richieste, contattare servizi web e fornire una risposta o eseguire un'azione: impostare una sveglia, inviare un messaggio, creare una nota o controllare il meteo.

Suggerimenti e trucchi Apple
Articolo correlato:
Suggerimenti e trucchi Apple per ottenere il massimo dal tuo iPhone e iOS

Nelle sue origini, Siri era un progetto di SRI International (SRI Venture Group)Siri è nato da un programma di ricerca della DARPA chiamato CALO, considerato uno dei progetti di intelligenza artificiale più ambiziosi del suo tempo. Nel 2010, Apple ha acquisito l'azienda produttrice di Siri, ha annullato i piani per Android e Blackberry e ha integrato l'assistente nativamente nell'iPhone 4S nel 2011.

Da allora, Siri è disponibile in più lingue, più Paesi e più piattaforme.È arrivato su iPad, Apple Watch, Apple TV e Mac (con macOS Sierra nel 2016). Con iOS 6, ha migliorato l'integrazione con app come Mappe e Promemoria, ha aggiunto la compatibilità Bluetooth per le auto e funzionalità come "Eyes Free", progettata per utilizzare Siri tramite i comandi al volante.

L'assistente si basa su un ecosistema di servizi esterni che alimentano le sue risposte: OpenTable o Yelp per i ristoranti, MovieTickets o RottenTomatoes per i filmTrue Knowledge, Bing Answers o Wolfram Alpha per i dati di riferimento, oltre a Bing e Google per il web. Tutto questo consente di rispondere a domande, effettuare prenotazioni o ottenere informazioni contestuali.

A livello pratico, Siri è sempre stato un assistente molto utile per compiti specificiControlla il meteo, trova un ristorante nelle vicinanze, pianifica appuntamenti, detta messaggi, cerca sul web o apri app. Ha anche un lato più giocoso, con battute, rap, storie e risposte bizzarre che sono diventate popolari tra gli utenti.

L'evoluzione di Siri

Ma di fronte a concorrenti come Assistente Google, Amazon Alexa o Samsung BixbyE più di recente, con l'avvento di grandi modelli linguistici come ChatGPT, Gemini e Claude, Siri ha mostrato alcuni limiti: un sistema relativamente chiuso, un'integrazione parziale con app di terze parti e una sensazione di stagnazione nell'aspetto conversazionale.

Privacy e design: l'assistente più discreto dell'ecosistema

Uno dei pilastri che Apple ripete continuamente è che Siri è progettato per essere un assistente molto personale ma estremamente discreto.Il sistema apprende le tue abitudini e preferenze, ma lo fa in modo che ciò che chiedi non venga associato al tuo account Apple come identificatore diretto.

Grazie al Neural Engine nei suoi chip, Gran parte dell'elaborazione del linguaggio e della parola avviene direttamente sul dispositivo —iPhone, iPad o Apple Watch—. L'audio delle tue richieste non esce dal dispositivo a meno che tu non dia esplicitamente il permesso di condividerlo e Apple sottolinea che le conversazioni con Siri non vengono utilizzate per scopi pubblicitari.

Su questa base costruisce la sua visione di Apple Intelligence e Private Cloud ComputeQuesti modelli vengono eseguiti sul dispositivo stesso per le richieste normali e, quando è necessaria maggiore potenza, si affidano a server progettati con un ulteriore livello di privacy. Secondo Craig Federighi, l'idea è che quando un modello riceve una domanda, i dati rimangano privati ​​e non vengano memorizzati o utilizzati per addestrare modelli di terze parti.

Questo approccio, che a volte rallenta lo sviluppo di funzionalità basate sui dati personali, spiega anche alcuni dei ritardi: Proteggere al massimo la tua privacy rende molto più difficile per Siri accedere alle tue informazioni personali., come messaggi, e-mail o file, proprio ciò che serve per essere davvero "intelligenti" nella vita di tutti i giorni.

Come attivare Siri oggi su iPhone, iPad, Mac, Apple Watch e CarPlay

Oltre la nuova IA, Il modo in cui si richiama Siri rimane fondamentale per un utilizzo fluido.Apple offre metodi diversi a seconda del dispositivo e delle impostazioni di accessibilità.

Su iPhone, dopo aver configurato l'assistente, puoi invocalo con la tua voce dicendo "Siri" o "Ehi Siri"Puoi anche tenere premuto il pulsante laterale sui modelli con Face ID o il pulsante Home sui modelli precedenti. Se utilizzi gli EarPods cablati, tieni semplicemente premuto il pulsante centrale; con CarPlay, puoi usare il pulsante di comando vocale sul volante o il pulsante Home sulla schermata CarPlay.

Sull'Apple Watch, soprattutto dalla serie 3 in poiHai diverse opzioni: alza il polso vicino alla bocca e parla, tieni premuta la Digital Crown o usa i comandi vocali se hai abilitato l'ascolto sempre attivo. Sui Mac con chip Apple, puoi anche dire "Siri" o "Ehi Siri", usare l'icona dedicata nella barra dei menu e configurare le scorciatoie da tastiera.

Per chi preferisce scrivere c'è la funzione “Scrivi a Siri” in AccessibilitàSi attiva da Impostazioni > Accessibilità > Siri, dove puoi abilitare "Scrivi a Siri" su iPhone o iPad. Una volta attivato, tieni semplicemente premuto il pulsante Siri e digita la tua richiesta, una funzione particolarmente utile in situazioni in cui non vuoi parlare ad alta voce.

Quando usi un pulsante fisico per aprire Siri, La risposta vocale si adatta alla modalità silenziosa Su iPhone: se abilitato, l'assistente risponde silenziosamente; in caso contrario, parla ad alta voce. Se lo richiami con la voce, Siri di solito risponde ad alta voce, anche se puoi regolare questo comportamento nelle impostazioni dell'assistente.

CarPlay, chatbot di terze parti e il ruolo di Siri in auto

Finora, L'auto era praticamente territorio esclusivo di Siri.In CarPlay, l'unico assistente vocale era quello di Apple, con piccole eccezioni come la ricerca vocale nelle app di mappe. Ma le cose stanno per cambiare.

Apple lavora per garantire che Le applicazioni di intelligenza artificiale con modalità vocale, come ChatGPT, Gemini o Claude, possono avere la propria app in CarPlayL'idea è che tu possa guidare, porre una domanda di lavoro o chiedere informazioni su una città che stai attraversando e parlare con uno di questi chatbot senza togliere le mani dal volante.

Tuttavia, l'azienda pone dei limiti molto chiari: Non potrai sostituire il pulsante Siri sul volante o usare una parola di attivazione come "Hey ChatGPT" o "Ok Google"Siri rimarrà l'unico assistente ufficialmente integrato per il controllo del sistema a livello di auto.

In pratica, questo significa questo Per utilizzare un chatbot di terze parti, dovrai prima aprire la sua applicazione in CarPlay.Gli sviluppatori potranno attivare automaticamente la modalità vocale all'apertura dell'app, ma sarà sempre necessario toccare lo schermo. Inoltre, questi chatbot non saranno in grado di controllare le funzioni dell'auto o dell'iPhone: si concentreranno sulla risposta a domande complesse, non sull'attivazione delle luci, sulla modifica della musica di sistema o sull'avvio di chiamate dal dispositivo al di fuori della propria app.

Nel frattempo, Apple sta preparando i propri miglioramenti: Con iOS 26.4, Siri inizierà a fare affidamento sul modello Google Gemini all'interno dell'infrastruttura Apple. E in seguito, con iOS 27, prevede di offrire un assistente completamente conversazionale che competerà direttamente con ChatGPT, Gemini e Claude.

Roadmap: da iOS 26.4 e 26.5 a un chatbot simile a Siri in iOS 27

Da un po' di tempo Apple sta facendo annunci e rimandando il lancio del nuovo Siri. Alla WWDC 2024, Apple ha presentato Apple Intelligence e una Siri molto più potente.in grado di utilizzare dati personali, comprendere lo schermo e controllare le app in modo avanzato, con una promessa iniziale di arrivo all'inizio del 2025.

Tuttavia, L'azienda ha continuato a rimandare il lancioInizialmente, l'ha spostata al 2026, senza fornire date specifiche, e in seguito ha collegato internamente il rilascio a iOS 26.4, un aggiornamento primaverile che storicamente ha portato cambiamenti importanti (come 16.4, 17.4 e 18.4).

Secondo varie indiscrezioni, tra cui quelle di Bloomberg e Mark Gurman, Il piano attuale prevede un'implementazione graduale tra iOS 26.4, iOS 26.5 e iOS 27.L'idea: utilizzare 26.4 come base strutturale, 26.5 come espansione ancora in fase di test di diverse funzioni chiave e 27 come grande vetrina commerciale con il chatbot completo Siri.

Nelle ultime settimane di test interni, tuttavia, sono emersi gravi problemi: lentezza, errori di accuratezza, incapacità di gestire query complesse e un bug particolarmente fastidioso che fa sì che Siri interrompa l'utente se parla troppo velocemente. Inoltre, l'assistente a volte delega compiti semplici all'integrazione con ChatGPT quando dovrebbe essere in grado di gestirli autonomamente.

Questi insuccessi hanno costretto Apple a Si consiglia di posticipare alcune delle funzionalità previste per iOS 26.4 fino a iOS 26.5 o addirittura iOS 27Gli stessi dipendenti che testano le versioni interne hanno riconosciuto che, alla fine del 2025, il sistema era così lento che sembravano inevitabili diversi mesi di lavoro extra.

Cosa porterà iOS 26.4 a Siri: contesto personale, schermata e azioni nelle app

iOS 26.4 si presenta come un Aggiornamento strutturale che getta le basi tecniche per la nuova SiriPiù che un semplice titolo di marketing, Apple sta preparando la prima beta per sviluppatori per la settimana del 23 febbraio, una beta pubblica poco dopo e una versione finale tra la fine di marzo e l'inizio di aprile.

La grande novità è quella L'intelligenza di Apple sta davvero iniziando a raggiungere Siri su tre fronti: comprensione del contesto personale, consapevolezza di ciò che è sullo schermo e azioni all'interno e tra le applicazioni tramite il framework App Intents.

Primo, l' Il contesto personale consente a Siri di avere qualcosa di simile alla memoria a breve termine. ed essere in grado di comprendere pronomi, riferimenti vaghi e dati già presenti sul tuo dispositivo: messaggi o conversazioni WhatsApp, eventi del calendario, e-mail di posta o note recenti.

In secondo luogo, il La consapevolezza dello schermo consentirà di fare riferimento a "questo", "quel file" o "questo messaggio" Senza dover copiare e incollare o dover spiegare tutto da zero, il sistema saprà quali contenuti sono rilevanti nell'app che stai utilizzando e sarà in grado di intervenire su di essi, a condizione che l'applicazione esponga correttamente le informazioni tramite le API appropriate.

Infine, Gli App Intents non saranno più nascosti dietro i comandi rapidi, ma diventeranno il linguaggio utilizzato dalle app per connettersi a Siri.Ogni sviluppatore definisce cosa può fare la propria applicazione (creare attività, modificare prenotazioni, inviare messaggi interni, elaborare pagamenti, ecc.) e il sistema può concatenare queste azioni in base a un comando in linguaggio naturale.

Funzionalità che potrebbero essere ritardate fino a iOS 26.5

Sebbene alcune di queste funzionalità fossero destinate a iOS 26.4, Test recenti suggeriscono che alcuni arriveranno in forma limitata o in modalità "anteprima" in iOS 26.5Apple ha incaricato i suoi ingegneri di testare le nuove funzionalità di Siri sulle build interne della versione 26.5, suggerendo un ritardo parziale.

Una delle caratteristiche dell'aria è la La capacità ampliata di Siri di accedere a dati personali approfonditiL'obiettivo: puoi chiedergli qualcosa del tipo "trova il podcast che Marcos mi ha inviato tramite messaggio qualche mese fa e riproducilo" e far sì che l'assistente individui quel collegamento nelle tue vecchie conversazioni e lo avvii direttamente.

Le versioni interne di iOS 26.5 includono un pulsante che attiva un'anteprima di queste funzionalità avanzate, con l'idea di avvisare l'utente che si tratta di qualcosa di sperimentale, suscettibile di fallimento o cambiamento, sullo stile delle beta pubbliche del sistema.

Sono anche in ritardo Comandi più potenti per controllare le azioni all'interno delle appsupportato da App Intents. L'esempio tipico sarebbe dire "trova una foto, ritoccala e inviala a Laura", e Siri sarebbe in grado di individuare l'immagine, applicare modifiche di base e condividerla, il tutto con un singolo comando.

I dipendenti che stanno testando iOS 26.5 segnalano che Queste funzionalità sono inizialmente supportate, ma la loro affidabilità lascia ancora molto a desiderare.Ecco perché Apple sta valutando di rilasciarli in anteprima, tenendo sotto controllo le aspettative mentre raccoglie dati sull'utilizzo e sui bug.

La grande scommessa: Siri come chatbot in iOS 27 e il progetto “Field/Fields”

Oltre 26.4 e 26.5, il grande salto commerciale arriverà con iOS 27, iPadOS 27 e macOS 27, che faranno il loro debutto con Siri trasformato in un chatbot nome in codice "Field" o "Fields". L'idea è quella di sostituire l'interfaccia attuale con un'esperienza di chat integrata a livello di sistema, accessibile sia tramite voce che tramite testo.

Questo nuovo Siri-chatbot sarà in grado di tenere lunghe conversazioni nello stile ChatGPT, con un thread continuo in cui è possibile richiedere riepiloghi, generazione di testo, creazione di immagini, ricerche web avanzate e gestione di attività complesse senza abbandonare la conversazione.

A livello tecnico, L'architettura si basa sulla piattaforma Apple Foundations Modelsche ora incorpora la tecnologia del team Google Gemini. Parte dell'elaborazione sarà effettuata sui dispositivi stessi (principalmente iPhone e Mac con chip recenti) e un'altra parte nei data center con chip progettati da Apple, nell'ambito del Progetto Baltra, focalizzato sull'elaborazione dell'intelligenza artificiale nel cloud.

L'azienda sta anche sperimentando un'app autonoma per gestire le interazioni precedenti con il chatbotÈ simile a una cronologia che puoi rivedere, modificare o riutilizzare per nuove attività. Da qui, ad esempio, puoi recuperare una conversazione in cui hai creato un documento o un'immagine e continuare la discussione.

Una parte fondamentale di questa Siri di prossima generazione sarà controllo approfondito delle funzioni del sistema e accesso sicuro ai dati personaliFile, email, eventi, contatti, note e molto altro. Apple vuole che tu possa chiedergli di riorganizzare la tua giornata, rivedere documenti, cercare informazioni importanti ed eseguire azioni in app come Mail, Calendario o Safari con comandi di alto livello.

Apple, Google e l'accordo Gemini

La trasformazione di Siri non può essere compresa senza L'alleanza strategica tra Apple e Google per integrare Gemini in Apple IntelligenceQuesto accordo, reso visibile all'inizio dell'anno, è fondamentale per dare forza generativa all'assistente e ad altre funzioni iOS.

Curiosamente, La comunicazione pubblica del patto è stata piuttosto asimmetricaL'annuncio appare principalmente sui canali di Google, mentre le piattaforme ufficiali di Apple offrono pochi dettagli. L'accordo esiste, ma la visibilità è in gran parte dalla parte di Alphabet, sollevando interrogativi tra analisti e investitori.

In una conferenza con gli investitori di Alphabet, L'analista Ken Gawrelski ha chiesto esplicitamente come questo tipo di accordo si adatti a partner come Apple.In un contesto in cui l'usabilità della piattaforma e l'intelligenza artificiale generativa potrebbero prevalere sui clic di ricerca tradizionali, la risposta di Philipp Schindler si è concentrata sulle prestazioni di ricerca complessive e sull'integrazione dell'intelligenza artificiale, ma ha evitato di fornire dettagli specifici sull'accordo con Apple.

Nella chiamata agli investitori Apple, Tim Cook è stato un po' più diretto sulle questioni tecnologiche, ma altrettanto evasivo sulle questioni contrattuali.Ha sostenuto che l'intelligenza artificiale di Google fornisce una base molto valida per i modelli di base di Apple e che insieme sbloccheranno esperienze chiave, ma ha chiarito che i termini dell'accordo non saranno divulgati.

Per gli investitori, Queste conferenze sui risultati sono diventate una finestra cruciale per comprendere la portata delle spiegazioni. sugli accordi che possono influire su prodotto, strategia e fatturazione. Sebbene le aziende evitino di entrare nei dettagli, la pressione per la chiarezza sta aumentando man mano che l'intelligenza artificiale diventa centrale nella loro proposta di valore.

Impatto di questo riavvio di Siri sull'ecosistema e sugli utenti

Il rilancio di Siri non è solo una questione di prestigio tecnologico: Apple rischia parte del valore percepito dell'iPhone e del suo ecosistemaGli iPhone rappresentano già circa il 20% delle vendite globali di smartphone e il 25% della base installata globale, con circa 1.500 miliardi di utenti iPhone attivi.

In mercati come la Spagna, iOS ha una quota di mercato mobile di circa il 28-29% E Apple è il produttore leader in termini di utilizzo attivo dei dispositivi, davanti a Samsung. Ogni miglioramento concreto di Siri significa che milioni di persone possono ottenere di più da un dispositivo per cui hanno già pagato, senza dover aggiornare l'hardware.

Tuttavia, Le funzionalità più avanzate di Apple Intelligence e la nuova Siri saranno limitate ai modelli recentiCome per la prima ondata, questo aggiornamento è limitato a iPhone 15 Pro, iPhone 16 e Mac con chip M1 o superiore. Questo esclude una percentuale significativa del mercato, circa il 20-30% secondo alcuni analisti.

Questo collo di bottiglia ha un duplice scopo: Può incoraggiare gli aggiornamenti dei dispositivi in ​​un mercato maturoMa può anche generare frustrazione tra coloro che vedono che la "loro" Siri non assomiglia a quella che Apple mostra nelle presentazioni. La sensazione di utilizzare una versione ridotta dell'assistente può avere un impatto negativo sulla percezione del brand.

In parallelo, Il ritardo accumulato si verifica nel peggior momento possibile.Mentre il mondo si abitua a interagire con ChatGPT, Gemini o Claude, l'assistente nativo dell'iPhone ha continuato a funzionare, in larga misura, come nel 2016. Ogni mese di ritardo si verifica su una base di centinaia di milioni di dispositivi attivi.

Esempi concreti di utilizzo del nuovo Siri

Per comprendere tutta questa impostazione tecnica, è utile immaginare come La vita quotidiana cambierà con il nuovo Siri sotto iOS 26.4 e, successivamente, 27Ecco tre scene molto specifiche.

Per prima cosa, pensa a una riunione complicata: Riceverai un'e-mail con un contratto aperto e potrai chattare con il tuo avvocato.Con iOS 26.4, potresti dire qualcosa come: "Siri, sposta questa riunione con Ana al primo orario disponibile di questo pomeriggio e inviale di nuovo il contratto". Il sistema utilizzerà il contesto personale (chi è Ana), le informazioni del calendario e il contenuto sullo schermo per apportare le modifiche e inviare il documento corretto.

Bambino iOS 27, La stessa situazione diventa più riccaSiri potrebbe suggerire alternative, suggerire di aggiungere il responsabile della conformità, redigere un'e-mail con sfumature legali e chiedere se si desidera salvare una versione modificata del contratto, il tutto in una conversazione continua con il chatbot.

Secondo esempio: un viaggio d'affari con cambiamenti dell'ultimo minutoBiglietti in Wallet, prenotazioni in PDF in File e riunioni in Calendario. Nella versione 26.4, si poteva chiedere: "Rinvia tutte le riunioni del giovedì a venerdì, avvisa le persone interessate e modifica il volo di ritorno con il primo volo di sabato mattina". Siri avrebbe dovuto coordinare gli App Intent della compagnia aerea, il calendario e le app di messaggistica per eseguire questa serie di azioni.

In 27, l'assistente potrebbe fare un ulteriore passo avanti: ripensare l'intero viaggio, suggerire hotel alternativi, ricalcolare il budget e preparare un riepilogo pronto per l'ufficio finanziario, il tutto senza uscire dalla conversazione in cui si approva ogni modifica.

Terzo scenario: una giornata satura di informazioni sparseStai leggendo un report macro in Safari, ricevendo un'e-mail con uno studio di ricerca di mercato e raccogliendo idee per una presentazione in Note. Nella versione 26.4, potrai dire: "Siri, crea una nota con le idee chiave e impostami un promemoria per domani alle 8 per rivederla", e il sistema utilizzerà la consapevolezza dello schermo e il contesto personale per acquisire i contenuti pertinenti.

Con la versione 27 del chatbot, È possibile chiedergli di riassumere entrambi i documenti, di incrociare i dati, di generare una scaletta per la presentazione e di suggerire diversi titoli. per condividerli direttamente con il tuo team, il tutto all'interno di un unico flusso di conversazione in cui puoi perfezionare il risultato.

Guardando il tutto, La nuova fase di Siri unisce una spinta decisa verso l'intelligenza artificiale generativa a una strenua difesa della privacy.Sfruttando i propri modelli, l'alleanza con Google Gemini e una profonda riprogettazione del modo in cui le app vengono esposte al sistema, se Apple riuscirà a farla funzionare bene e a coinvolgere sviluppatori e utenti, l'assistente che per anni è stato "per cose semplici" potrà finalmente diventare il livello che orchestra quasi tutto ciò che fai con il tuo iPhone, il tuo iPad, il tuo Mac e persino la tua auto.