Oggi: 28 Giugno 2025
26 Giugno 2025
7 minuti di lettura

Intelligenza artificiale: amica o nemica? Prima conosciamola

Da quando è scoppiato il fenomeno ChatGPT nel 2022, le aziende tecnologiche e non hanno cominciato una vera e propria “corsa all’intelligenza artificiale”. Questa tecnologia è tanto elogiata e studiata quanto discussa: c’è chi la ama, chi la odia, chi ne è incuriosito ma fa ancora fatica a usarla o comunque non riesce ad “abbandonarsi” del tutto a essa.

Quel che è certo è che tutti ne parlano, in molti casi anche chi non ha ancora ben compreso il funzionamento di questa tecnologia potente e altrettanto pericolosa, se usata in maniera sbagliata. Districarsi nella giungla di opinioni non è semplice e sentirsi confusi è del tutto normale.

Considerati gli impatti effettivi e potenziali dell’IA, è fondamentale conoscerla e comprenderla a fondo prima di prendere una posizione netta. L’intelligenza artificiale è uno strumento e, in quanto tale, va studiato per essere usato nel modo giusto.

La nascita dell’intelligenza artificiale

L’intelligenza artificiale ha radici ben più profonde di quanto molti potrebbero pensare: si cominciò a parlare di questo tema già dall’avvento dei primi computer.

Ma cos’è esattamente l’IA? Lo standard internazionale ISO/IEC 42001– Information Technology – Artificial Intelligence – Management System definisce l’intelligenza artificiale come “la capacità di un sistema di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività”.

Di fatto quindi non si parla di una tecnologia, quanto più di una branca dell’informatica che tenta, tramite un sistema artificiale, di simulare una forma di intelligenza quanto più possibile simile a quella umana.

Lo scopo dell’IA quindi è sempre stato quello di replicare il pensiero umano in senso lato, includendo tutto ciò di cui è capace. Una sfida notevole che, negli ultimi anni, ha ricevuto una nuova spinta.

I primi accenni a questa branca di studio sono emersi in realtà già con Alan Turing negli anni ‘30 del ‘900 e in seguito grazie ai lavori di McCulloch e Pitts, nel 1943, e di Minsky e Dean Edmonds, nel 1950, due studenti che crearono la prima rete neurale artificiale.

Fu solo qualche anno dopo, però, che si cominciò a parlare esplicitamente di intelligenza artificiale in senso più moderno.

La conferenza di Dartmouth

Nel 1956 si tenne la conferenza di Dartmouth, un evento voluto dagli informatici John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon. In occasione dell’incontro, i quattro ricercatori presentarono un documento, la “Proposta di Dartmouth”, in cui asserivano la possibilità di creare una macchina (intesa come un sistema) in grado di simulare le caratteristiche dell’intelligenza umana.

L’evento segnò la nascita del campo di ricerca dedicato all’IA, descrivendo i temi principali che avrebbero guidato gli studi negli anni a venire. Il termine “intelligenza artificiale” venne coniato formalmente proprio durante la conferenza.

L’incontro viene ricordato anche per aver accolto quello che è considerato il primo programma di intelligenza artificiale. Il “Logic Theorist” venne sviluppato da Allen Newell e Herbert Simon ed era un programma in grado di dimostrare teoremi partendo dai principi matematici, come avrebbe potuto fare un essere umano. Una simulazione del ragionamento, per l’appunto.

ELIZA e DeepBlue

Altri due progetti che hanno segnato la storia dell’intelligenza artificiale sono ELIZA e DeepBlue.

Il primo è considerato il primo chatbot della storia, ovvero un sistema in grado di conversare con un utente rispondendo alle sue richieste. Nelle intenzioni di Joseph Weizenbaum, l’informatico tedesco che nel 1966 scrisse il programma, ELIZA era una sorta di psicoterapeuta.

Il programma non faceva altro che analizzare dal punto di vista lessicale le parole inserite dall’utente e rispondere con una frase preimpostata, nella quale sostituiva delle parole in base al risultato dell’analisi.

Di fatto fu un programma che in qualche modo anticipò i moderni chatbot, anche se oggi le tecniche di analisi del linguaggio naturale sono notevolmente avanzate. Oggi questi sistemi interattivi non si basano più su una serie di risposte predefinite, ma sono in grado di comprendere il contesto, il significato che l’utente dà alle parole e l’intento della richiesta.

DeepBlue, più noto, sconfisse il campione del mondo di scacchi Garry Kasparov nel 1997. Progettato appositamente per competere a questo gioco, il computer era in grado di analizzare milioni di mosse al secondo. Lo contraddistingueva non un vero e proprio ragionamento, quindi, ma una potenza di calcolo sensazionale per i suoi tempi che gli consentì di valutare e analizzare migliaia di partite di campioni per scegliere la mossa migliore in un determinato stato della partita.

Come funziona l’IA?

Cerchiamo ora di capire come funziona l’IA e cosa c’è alla base di questa disciplina. Tutto parte dai dati, carburante del processo di apprendimento: i sistemi compongono la propria conoscenza basandosi su dei dataset, insiemi di dati composti appositamente per guidare il funzionamento dei programmi. Questi dati possono essere testi, numeri, immagini, suoni e altre tipologie di media.

A tal proposito è importante sottolineare che l’IA è tanto “intelligente” quanto “buono” è il dataset su cui è stata addestrata. Possiamo aver sviluppato il sistema di IA più potente al mondo, in grado di gestire decine di milioni di parametri, ma se i dati di addestramento contengono errori o pregiudizi, oppure sono incompleti, i risultati non potranno che risentirne.

Queste informazioni vengono utilizzate nella fase di apprendimento, il cuore di ogni sistema di IA. I sistemi si differenziano per il modo in cui apprendono: si parla per esempio di Machine Learning, una metodologia di apprendimento automatico che usa tecniche e algoritmi quali le reti neurali, la regressione logistica, la regressione lineare, il clustering o gli alberi decisionali per scoprire relazioni non note nei dati, identificare pattern e creare modelli per effettuare previsioni a partire da nuovi dataset.

Il Machine Learning è l’approccio dominante al giorno d’oggi per l’apprendimento dei sistemi. In molti casi viene usato anche il Deep Learning, una specializzazione del Machine Learning che usa reti neurali con numerosi livelli di elaborazione per eseguire compiti più complessi come il riconoscimento delle immagini o della voce.

Oggi si individuano tre tipi di intelligenza artificiale: l’Artificial Narrow Intelligence (ANI), l’Artificial General Intelligence (AGI) e la Artificial Super Intelligence (ASI).

Nel primo caso si fa riferimento a un’intelligenza artificiale “debole”, ovvero a quei sistemi specializzati in attività specifiche che non sono in grado di evolversi in autonomia e svolgere compiti per cui non sono stati progettati. Tutti i sistemi “intelligenti” che usiamo quotidianamente, come gli assistenti vocali e gli stessi chatbot di cui si parla tanto.

L’AGI è invece una forma di IA in cui le macchine sono in grado di svolgere più compiti e apprendere nuove capacità, oltre che simulare le emozioni. Attualmente non ci sono sistemi in grado di rispondere a questa esigenza, ma molti ritengono che ci siano già basi solide per renderli realtà.

Infine, l’ASI è una tipologia molto avanzata di IA per cui le capacità di ragionamento dei sistemi artificiali superano quelle umane. Attualmente rimane solo un concetto teorico che prevede la nascita di una macchina in grado di “dominare” l’intelligenza e le capacità cognitive degli esseri umani, anche in ambiti come la creatività e la comprensione del linguaggio naturale.

L’IA, nelle sue varie specializzazioni, viene utilizzata per scopi diversificati: i sistemi possono essere usati per prevedere dei fenomeni (come l’incidenza delle frodi o le variazioni del tempo atmosferico), classificare oggetti e soggetti, automatizzare flussi, analizzare dati esistenti per, per esempio, effettuare diagnosi mediche o identificare potenziali pericoli, creare motori di raccomandazione basati sui comportamenti storici degli utenti (come nel caso di Netflix e altri servizi di streaming, o in molti e-commerce), oppure effettuare il riconoscimento vocale o visivo.

L’intelligenza artificiale generativa

Spesso molti utilizzano “intelligenza artificiale generativa” come sinonimo di “intelligenza artificiale”. Vista la pervasività della prima, occorre fare chiarezza: l’IA generativa è solo una tipologia di IA, una in grado di creare oltre che analizzare o prevedere.

Nel dettaglio, si tratta di un tipo di IA in grado di generare contenuti (che siano testo, immagini o altri media) in risposta a una richiesta (prompt) dell’utente. Quando usiamo strumenti come ChatGPT, Gemini, Claude o qualsiasi altro chatbot stiamo interagendo con sistemi di IA generativa.

A differenza dei tradizionali assistenti digitali (vi ricordate Clippy?) che funzionano identificando parole chiave e cercando tra frasi predefinite, i moderni chatbot comprendono l’intento dell’utente, riuscendo anche a distinguere la presenza di sarcasmo, e sono quindi in grado di sostenere conversazioni complesse.

Va evidenziato che ciò che appare come un ragionamento è in realtà la capacità del sistema di modellare delle sequenze di “token” (parole, segni di punteggiatura, …) in modo che abbiano delle specifiche relazioni semantiche e sintattiche, tutte internalizzate in fase di apprendimento.

Oggi è il tipo di IA più diffuso e soprattutto quello più usato dal grande pubblico. I dibattiti etici e morali sui sistemi di IA vertono per la maggior parte su questa tipologia; per questo motivo spesso i due termini vengono usati come sinonimi, anche se in maniera impropria.

Amica o nemica?

Come già anticipato, l’intelligenza artificiale non è altro che uno strumento nelle nostre mani. Non è un mostro a tre teste, né una razza aliena fuori controllo pronta a spazzarci via dalla faccia della terra.

Alcuni timori sull’abuso di questa tecnologia sono più che leciti, soprattutto quelli legati all’etica e all’uso dell’IA da parte dei cybercriminali per eseguire attacchi più efficaci e veloci su scala globale. L’aumento degli attacchi deepfake e le campagne di phishing sempre più incisive sono, tra gli altri, indicatori significativi dei pericoli a cui siamo e continueremo a essere esposti.

D’altra parte l’intelligenza artificiale si sta rivelando uno strumento indispensabile per i ricercatori di sicurezza per individuare più velocemente le minacce, analizzando gli indicatori di rischio e le anomalie a un ritmo e con una precisione che prima non erano possibili.

Similmente, è comprensibile il timore per la riduzione dei posti di lavoro, ma, come è già accaduto in passato con le evoluzioni della tecnologia, la diffusione dell’IA crea nuove professionalità di più alto livello e abilita nuovi metodi d’insegnamento e formazione che prediligono la personalizzazione dei percorsi di apprendimento, creando iter su misura, in base alle necessità e ai punti di forza del singolo.

E ancora, si può discutere sulla necessità di avere dataset di apprendimento che non contengano pregiudizi o errori, in modo da non creare sistemi dannosi per qualsiasi tipo di minoranza; un problema che oggi è molto sentito e che necessita di un’attenzione particolare, in modo che l’IA diventi un supporto e non un ostacolo al benessere umano.

Per non parlare poi dell’urgenza di proteggere la proprietà intellettuale e preservare la creatività umana.

La questione, ormai l’avrete capito, è complessa e sfaccettata; per questo motivo non può essere presa con leggerezza e richiede elevati livelli di competenza. Necessaria è, inoltre, una stretta collaborazione tra istituzioni, istituti di ricerca e imprese per fare in modo che questa tecnologia adempia al proprio dovere, ovvero diventi un aiuto per l’essere umano e una nuova spinta per il progresso.

Il sonno della ragione genera mostri recita la famosa incisione di Goya e in questo momento è più significativa che mai. L’ignoto può far paura, ma con la conoscenza è facile rischiarare il buio dell’ignoranza; solo così è possibile comprendere ciò che ci circonda, formare un’opinione e, soprattutto, gestire correttamente le sfide attuali e future.

Aiutaci a far nascere il Progetto Editoriale LaLettera22, contribuisci alla raccolta fondi

Marchigiana di nascita, romagnola d’adozione. Sviluppatrice web laureata in Ingegneria e Scienze Informatiche, ma da sempre appassionata al mondo del giornalismo e della scrittura, ho iniziato a coltivare questa passione collaborando con testate di informatica, cultura, attualità e intrattenimento, riuscendo col tempo a trasformarla in un lavoro.
Avida lettrice, gestisco una pagina Instagram dove pubblico recensioni e curiosità sui romanzi che leggo.
Oltre che di contenuti divulgativi, amo anche cimentarmi nella scrittura di storie. Nel 2020 ho pubblicato in self “Il custode dei ricordi”, romanzo young adult scritto durante l’adolescenza.

Previous Story

Attacco USA in Iran: come è avvenuto il bombardamento sui siti nucleari

nato spesa militare
Next Story

Spesa militare NATO al 5%: tra realtà strategica e concessione politica a Trump

Ultimi articoli dal Blog

Torna inalto