Cos’è l’Intelligenza Artificiale?

6 min

Dare una definizione dell’Intelligenza Artificiale non è semplice soprattutto per i suoi tanti ambiti di applicazione. Se vogliamo definirla da un punto di vista puramente informatico, l’Intelligenza Artificiale è la disciplina che studia tutte le teorie e le tecniche utili per l’elaborazione di un algoritmo che, utilizzando metodi cognitivi, sia in grado di processare una grande quantità di dati. I software che utilizzano l’IA forniscono un output probabilistico diverso da quello deterministico generato dai software tradizionali. Ora vediamo nello specifico in cosa differisce dal ragionamento umano e cosa intendiamo per reti neurali, machine learning e deep learning. 

Vuoi ascoltare l’audio dell’articolo? Clicca play ⇓

Letto da: Linda Grasso

Cosa si intende per Intelligenza Artificiale?

SAS Italia ha provato a condensare in 10 parole l’Intelligenza Artificiale e da questa definizione abbiamo preso spunto per trattare un argomento affascinante, che ha ispirato tante sceneggiature hollywoodiane e che oggi è ancora oggetto di discussioni concettuali ed etiche.

Definizione Intelligenza Artificiale

I software sviluppati seguendo i principi dell’IA hanno un’autonomia decisionale che, a un osservatore comune, potrebbe sembrare identica alle abilità umane ma non è neanche lontanamente paragonabile alle capacità intuitive dell’individuo.

Se riprendiamo il significato letterale d’Intelligenza ci rendiamo conto di quante abilità ha la mente umana:

intelligènza (ant. intelligènzia) s. f. [dal lat. intelligentia, der. di intelligĕre
«intendere»]. – 1. a. Complesso di facoltà psichiche e mentali che consentono all’uomo di pensare, comprendere o spiegare i fatti o le azioni, elaborare modelli astratti della realtà, intendere e farsi intendere dagli altri, giudicare, e lo rendono insieme capace di adattarsi a situazioni nuove e di modificare la situazione stessa quando questa presenta ostacoli all’adattamento. Fonte: Treccani

Attualmente non ci sono software che inglobano tutte queste capacità. Appare, quindi, lecito chiedersi: ma è appropriato definirla Intelligenza? In realtà, se ci riflettiamo bene, sarebbe più corretto definirla una grande capacità di simulazione.

Le macchine possono ragionare come gli esseri umani?

Da quando si è iniziato a parlare di Intelligenza Artificiale, e sono stati costruiti i primi robot che simulavano le movenze umane, l’associazione mentale è stata quasi immediata per molte persone: i robot sostituiranno l’essere umano e la cinematografia in merito di certo non ha aiutato ad immaginare uno scenario diverso. Chi conosce a fondo l’argomento sa che le macchine, ad oggi, non potranno mai ragionare come gli esseri umani e che non è questo l’obiettivo dell’implementazione di questa tecnologia.

L’IA emula alcuni sensi umani come la vista e l’udito ma ci sono aspetti del ragionamento umano che non sono replicabili attraverso l’intelligenza artificiale, come le capacità di:

  • definire degli obiettivi e le ragioni per raggiungerli;
  • astrarre la conoscenza;
  • generare autonomamente sentimenti empatici.

Cosa ci riserva il futuro? Lasciamo rispondere a Judea Pearl, un informatico e filosofo israeliano-americano, vincitore del premio Turing nel 2011 e conosciuto per aver difeso l’approccio probabilistico all’intelligenza artificiale:

“Il giorno in cui l’IA saprà approssimarsi all’intelligenza umana è vicino, ma le sue capacità vanno giudicate su tre livelli di abilità cognitive: vedere (associazione), fare (intervento) e immaginare (controfattuali). L’IA oggi lavora solo al livello più basso, cioè vedere”.

Cervello umano vs computer

L’Intelligenza Artificiale: reti neurali, machine learning e deep learning

L’idea alla base del concetto di IA è il tentativo di emulazione delle capacità dell’intelletto umano. Da dove partire quindi? Dal complesso sistema di reti neuronali che nell’individuo consentono attività elaborate come il ragionamento, l’apprendimento, la riproduzione di suoni, parole, immagini e la capacità di azione. Negli anni 40 del XX secolo W.S. McCulloch e W. Pitts furono i primi a realizzare un prototipo di neurone artificiale. Da quel momento sono stati realizzati sistemi sempre più elaborati di reti neurali artificiali in grado di apprendere ed adattarsi a diversi scopi.

Le reti neurali artificiali e il deep learning

Le reti neurali artificiali si basano su modelli computazionali che ricreano le connessioni tipiche delle reti neurali biologiche. La struttura è composta da nodi e interconnessioni sotto forma di flusso. I dati vengono inseriti nell’Input Layer, lo strato di ingresso, attraversano l’Hidden Layer, strato nascosto di elaborazione e generano un output in linea con l’obiettivo di progettazione iniziale.

Costruite le connessioni si passa alla fase di apprendimento in cui avviene l’inserimento di un set di dati. Se l’ apprendimento è supervisionato si forniscono anche dei possibili output finali. Se, invece, lapprendimento non supervisionato si lascia che il sistema impari dagli output precedentemente generati.

Un esempio di rete neurale artificiale: il riconoscimento di un volto umano da un’immagine elaborata.

neurone biologico vs neurone artificiale

Le architetture di Deep Learning sono features di reti neurali che coinvolgono un numero nettamente maggiore di livelli “nascosti”, hidden layer, per identificare le caratteristiche dei dati.

Nell’apprendimento strutturato e profondo delle architetture di Deep Learning possiamo trovare, nei casi più complessi, oltre 150 layer nell’hidden.

Quali sono i campi di applicazione delle reti neurali e del deep learning?

Le soluzioni che le reti neurali e le architetture di deep learning sono in grado di generare possono essere applicate nella maggior parte delle aziende. Maggiore è la quantità di dati da gestire migliore sarà la risposta data come output.

  • Riconoscimento vocale: molte app sfruttano questi software per tradurre il linguaggio parlato in testo scritto. In azienda, ad esempio, se utilizziamo il riconoscimento vocale per le operazioni di magazzino otterremo un miglioramento della produttività. Come? Attraverso la trasformazione dei messaggi vocali in testi intelligibili dai software che dovranno poi occuparsi della gestione dei processi. Questo processo in gergo tecnico è conosciuto come speech-to-text.
  • Elaborazione del linguaggio naturale (NLP): utile nelle interazioni tra computer e voce umana, che oltre al riconoscimento vocale, comprende e genera un linguaggio naturale. Questo permette anche la traduzione in un’altra lingua e l’analisi testuale di grandi quantità di dati. Nell’organizzazione aziendale ciò si traduce con un’ottimizzazione dei dati attraverso la sintesi dei documenti e la classificazione delle informazioni.
  • Riconoscimento di parti di testo: se inseriamo un testo come input dataset con una chiara denominazione possiamo ottenere come output un controllo delle incongruenze o applicare delle regole che ci consentano di verificare immediatamente un errore. In campo assicurativo questo aspetto è fondamentale per rilevare le frodi.
  • Riconoscimento e classificazione degli oggetti presenti in un’immagine attraverso algoritmi in grado di riconoscerli, identificando la forma, il colore, ed estrapolarli dal contesto. L’applicazione dell’Image Recognition coinvolge diversi settori come la sicurezza, la sorveglianza e controllo delle merci.

Iscriviti alla nostra newsletter

Machine learning: la capacità di apprendimento delle macchine

Quando queste enormi potenzialità vengono traslate nei software entriamo nel campo del machine learning. Insegnare alle macchine ad apprendere automaticamente e ad agire senza essere programmati esplicitamente è un importante traguardo che permette di velocizzare i tempi di riposta. Come avviene l’apprendimento? Analizzando i dati per costruire ed adattare modelli. I pattern consentono di apprendere attraverso un percorso esperienziale analogo a quello umano ovvero scartando gli errori e promuovendo le azioni corrette. Identificando questi pattern si può costruire un algoritmo che adatta i modelli e migliora la loro capacità di fare previsioni. Quando si lavora con software strutturati con questa tecnologia bisogna ricordare che i risultati non sono certi ma probabili e occorre valutare attentamente la percentuale di correttezza del dato.

Gli ambiti in cui è possibile utilizzare il machine learning sono molteplici, ne citiamo alcuni:

  • tradurre un testo in un’altra lingua;
  • scegliere delle opportunità di investimento attraverso i sistemi di trading;
  • personalizzare i prodotti in evidenza di un e-commerce in base alle ricerche effettuate online;
  • rilevare rapidamente le frodi ad istituti bancari creando strumenti che sfruttino le tecniche di apprendimento automatico.

“L’intelligenza artificiale è la scienza di addestramento dei Sistemi per emulare Attività Umane attraverso l’Apprendimento e l’Automazione.” Condividi il Tweet

Chi ha inventato l’IA?

La panoramica sull’IA non può concludersi senza chiarire un ultimo dubbio. Quando nasce e chi ha inventato l’IA? La comunità scientifica riconosce all’unanimità una data di nascita ufficiale per IA: il 1953, anno in cui si tenne un seminario nel New Hampshire che decretò la fondazione della disciplina sulla base della raccolta di importanti contributi in merito. Quando si pensa invece ad un nome da associare all’IA si cita Alan Turing e il suo articolo “Computing machinery and intelligence”, perché in realtà la sua applicazione si è concretizzata proprio con la nascita dei primi computer che si prestavano bene a rendere il concetto di intelligenza associata alle macchine.

Hai trovato utile questo post?

Clicca sulla lampadina per votarlo!