Intelligenza Artificiale

Quanto dista il futuro?

Intelligenza Artificiale

Quanto dista il futuro?

Che cos’è l’Intelligenza Artificiale
Summary
 

La nascita dell’Intelligenza Artificiale viene ufficialmente fatta risalire all’avvento dei computer, nel 1956 (anche se fu teorizzata qualche anno prima da Alan Turing (link alla timeline) nella rivista Computing Machinery and Intelligence. Può essere definita come quel ramo dell’informatica che abilita in una macchina capacità computazionali e logiche solitamente considerate tipiche del genere umano, come la capacità decisionale, la percezione spazio-temporale dell’ambiente in cui la macchina si trova e la capacità di riconoscere immagini ed oggetti. A permetterlo sono la programmazione e la progettazione sia a livello hardware che software.

La macchina va dunque oltre la semplice capacità di calcolo o di riconoscimento/elaborazione dei dati, ma mostra esempi di altre forme di “intelligenza”, come quelle indicate da Howard Gardner nel suo saggio “Frames of Mind” nel 1983. La sua Teoria delle Intelligenze Multiple si basa sull’idea che tutti gli esseri umani possiedano almeno sette forme di “rappresentazione mentale”, dall’intelligenza spaziale a quella sociale, da quella cinestetica a quella introspettiva. Le macchine che nascono in ambito AI sono in grado di riprodurre proprio queste tipologie di intelligenze.

Più recentemente, la Commissione Europea tramite il suo team dedicato (vedi box) ha proposto questa definizione (aprile 2018):

●      L’intelligenza artificiale (AI) si riferisce a sistemi che mostrano un comportamento intelligente e che sono in grado di analizzare il loro ambiente e intraprendere azioni – con un certo grado di autonomia – per raggiungere obiettivi specifici.
 
●      I sistemi di intelligenza artificiale possono essere puramente software (ad es. Assistenti vocali, software di analisi delle immagini, motori di ricerca, sistemi di riconoscimento vocale e facciale) o AI integrati in dispositivi hardware (ad es. robot avanzati, auto autonome, droni o sensori intelligenti).

 
Discipline Scientifiche


●      Reasoning and Decision Making
●      Learning
●      Robotics

humanbody-ita
 
Componenti di un sistema di Intelligenza Artificiale
Sensori per la percezione dell’ambienteAd esempio fotocamere, microfoni, una tastiera o altri dispositivi di input, nonché sensori fisici per misurare ad esempio temperatura, pressione, distanza.  Ad un sistema di AI occorrono sensori adeguati per percepire i dati presenti nell’ambiente che risultano rilevanti per l’obiettivo assegnato.
Algoritmi di elaborazione e algoritmi decisionaliI dati che sono stati catturati dai sensori vengono processati dal modulo di ragionamento della AI, che li utilizza per compiere l’azione corretta in base all’obiettivo da raggiungere. I dati diventano informazioni.
Attuazione della decisioneDecisa l’azione, il sistema AI attiva gli attuatori a sua disposizione, non solamente fisici ma anche software. Bisogna considerare che i sistemi di intelligenza artificiale razionale non è detto che scelgano sempre l’azione migliore per il proprio obiettivo, a causa di limitazioni nelle risorse come il tempo o la potenza di calcolo.
ai-type-eng
 
 
Letteratura e cinema Quando Hollywood anticipa la realtà

L’uomo, nella letteratura e nel cinema, si è sempre posto domande sulla possibile interazione con un’intelligenza artificiale. Il primo personaggio di finzione ad essere considerato tale è il Frankenstein di Mary Shelley (1818), divenuto film nel 1931. Non una creatura di metallo e silicio, come siamo abituati a immaginare oggi, ma un essere non umano riportato in vita grazie a prodigi tecnologici, che scopre il libero arbitrio e combatte per ottenerlo sfidando il suo stesso creatore.
È un concetto che ritroviamo in molte opere successive, a partire dal dramma ceco di Karel Čapek “RUR” del 1920. Robota in ceco significa lavoro: le “macchine” costruite per sostituirci nei lavori più pericolosi e pesanti, finiscono per divenire sempre più intelligenti e apprendere non solo nozioni e azioni ma anche sentimenti. La discriminazione, la paura e l’insensibilità umana sono spesso il motivo delle loro ribellioni.
 
Isaac Asimov, considerato uno dei capostipiti della letteratura di fantascienza aveva delineato le tre leggi della robotica:
1 – Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
2 – Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
3 – Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.
Queste leggi sono valide a meno che, scrive Asimov nei suoi libri, non contrastino con la Legge Zero: Un robot non può danneggiare l’Umanità, né può permettere che, a causa del suo mancato intervento, l’Umanità riceva danno.
 
Impossibile citare tutte le suggestioni letterarie e cinematografiche relative al tema. Quelle che seguono sono 3 tra le tipologie di intelligenze artificiali più viste nel cinema. Una lista esaustiva per cinefili la potete trovare qui.

Quando Hollywood anticipa la realtà I Robot

Dal capostipite Metropolis (1927) sono molti i film che hanno trattato di umanoidi elettronici. In molte opere i robot hanno in comune il bisogno di pensare ed emozionarsi come gli uomini, ribellarsi e diventare liberi dalla schiavitù. Lo fanno i replicanti di Blade Runner (1982) che sanno quando smetteranno di esistere, perché sono nati con una data di scadenza. Il distacco dai loro creatori umani avviene anche in A.I. (2001),  Bicentennial Man (1999) e I, Robot (2004) in forma piuttosto romantica, mentre nella saga di Terminator (1984) e in film come Ex-Machina (2015) gli epiloghi sono più tragici. In ordine di tempo i primi veri robot “buoni” li troviamo nel primo episodio della lunga saga di Star Wars del 1977. E come dimenticare l’esempio più artistico nel film d’animazione Wall-E (2008).

Quando Hollywood anticipa la realtà Sistemi intelligenti

Virtual assistant e sistemi automatici sono in grado di comprendere tono e contesto del dialogo, memorizzare e riutilizzare le informazioni raccolte e dimostrare intraprendenza nel corso della conversazione. Questo lavoro lo fa ben oltre le aspettative il cervello elettronico HAL 9000 nel capolavoro di Kubrick 2001 Odissea nello Spazio (1968). E quando comprende gli umani leggendo il labiale… non la prende benissimo. Un sistema cloud in grado di interagire verbalmente e in modo empatico lo troviamo in Her di Spike Jonze (2013), dove un uomo solo inizia un rapporto verbale con un sistema operativo in grado di provare emozioni, è la più plausibile descrizione di un futuro non troppo lontano.

Quando Hollywood anticipa la realtà Realtà artificiale

Molti film sono stati profetici nell’immaginare tecnologie che oggi sono entrate nella quotidianità. Dal riconoscimento biometrico in Robocop (1987) alla pubblicità personalizzata e il muro interattivo di Minority Report (2002). Ma il tema della realtà virtuale già toccato in Tron (1982), The Lawnmower Man (1992), Johnny Mnemonic (1995) e Nirvana (1997) raggiunge la sua massima portata epica nella trilogia The Matrix (1999-2003) dove [SPOILER] l’intelligenza artificiale ormai domina il mondo e non solo crea macchine diaboliche ma “coltiva” l’uomo in campi sterminati perché produca energia elettrica con la propria attività cerebrale mentre vive inconsciamente in una realtà virtuale costruita nel modo più simile possibile alle imperfezioni della natura umana. Un quadro totalmente ribaltato.

Possiamo avere la certezza che non sia davvero così?

 
Breve storia dell’Intelligenza Artificiale
1950 The Turing Machine

British mathematician Alan Turing theorises a “computing machine” (the Turing machine), capable of carrying out cognitive processes. It lays the foundation for what we now call artificial intelligence.

1956 “Artificial Intelligence” is born

Scientists gathered at a conference at Dartmouth College in New Hampshire believe that a machine can simulate aspects of learning and other characteristics of human intelligence. Programmer John McCarthy proposes the term “artificial intelligence”.

1966 The first chatbot – Eliza

Scientist Joseph Weizenbaum of the Massachusetts Institute of Technology invents “ELIZA”, a computer programme to communicate with humans.

1972 The first robot – WABOT-1

The first human-looking life-size robot is built in Japan. It is called WABOT-1. It can walk and pick up objects.

1986 The talking computer – NETtalk

Terrence J. Sejnowski and Charles Rosenberg teach the computer to talk with their “NETtalk” programme, which is capable of reading and pronouncing words. In addition, it can apply what it has learned to words it doesn’t know. It is one of the first artificial neural networks.

1997 Deep Blue beats Kasparov

The Deep Blue computer beats reigning world chess champion Garry Kasparov.

2002 AI in the home

Artificial intelligence enters our homes thanks to Roomba, a robot vacuum cleaner.

2011 Digital assistants

The era of the digital assistant begins, Apple’s Siri is the first in 2011, Microsoft introduces “Cortana” in 2014 and the following year Amazon Echo arrives with the Alexa voice service.

2016 AI diagnosis and games

The artificial intelligence alphaGo, Google software, beats the champion of the popular GO game.

 
 
Come cambia il mondo con l’Intelligenza Artificiale

L’intelligenza artificiale entra in gioco più di quanto pensiamo nella vita quotidiana delle persone. Nel campo della medicina, ad esempio, si fa ricorso sempre di più al digital per la diagnostica di malattie come il Parkinson e l’Alzheimer, ma anche in campi apparentemente intoccabili come l’arte è successo che un dipinto generato dall’AI nell’ottobre 2018, fosse battuto da Christie’s a oltre 430000 dollari. E se siamo abituati (consapevoli?) ad essere guidati nelle nostre esperienze di acquisto (Amazon & C.) e di visione (Netflix su tutti), faremo l’abitudine a gestire i nostri investimenti finanziari grazie al servizio di caring gestito da forme di intelligenza artificiale, come ad esempio l‘assistente Erica della Bank of America.

 
AI: Forte e Debole

L’abbinamento dei termini “Strong” e “Weak” con Intelligenza Artificiale è stato creato da John Searle, che voleva sottolineare differenti livelli di prestazioni in diversi tipi di macchine.

IA DeboleIA Forte
Una piccola applicazione con un obiettivo limitato.Applicazione più ampia con una portata più vasta.
Applicazione buona per specifici compiti.Questa applicazione ha un’intelligenza a livello dell’uomo.
Utilizza l’apprendimento supervisionato dall’uomo e non per elaborare dati.Utilizza il clustering e l’associazione per elaborare dati.
Esempio: Assistenti vocaliEsempio: Robotica avanzata
 
3types-eng
Un altro tipo di classificazione suddivide le tipologie di Intelligenze Artificiali in Narrow, General e Super.
 

Narrow AI

Sono sistemi progettati per risolvere un singolo problema. Per definizione, hanno capacità limitate: possono consigliare un prodotto di e-commerce o fornire previsioni del tempo. Sono in grado di avvicinarsi al comportamento umano, ma possono eccellere solo in ambienti con un numero limitato di parametri.

General AI

È il tipo di Intelligenza Artificiale più vicino a quella umana. Alcuni scienziati sostengono che sia prossima a vedere la luce una AI in grado di relazionarsi all’ambiente sociale nello stesso modo in cui lo farebbe un essere umano. Il gap attuale è rappresentato non dalla capacità di analisi e dall’elaborazione dei dati (in cui sono già enormemente superiori a noi), ma dall’impossibilità di pensare in modo astratto e di avere idee originali.


Super AI

Teoricamente supera l’intelligenza umana in modi che non possiamo attualmente nemmeno immaginare. Una super AI sarebbe migliore di noi in tutto, ma qui si entra nel territorio della fantascienza, Le sue capacità comprenderebbero processi decisionali, decisioni razionali e anche la costruzione di relazioni emotive.

 
Applicazioni di Intelligenza ArtificIale
branchie-ai-eng
 
Machine Learning

Il Machine Learning è la scienza che permette alle macchine di interpretare, elaborare e analizzare i dati per risolvere i problemi del mondo reale. A un livello base, il ML significa fornire dati a un computer per allenarlo a svolgere un task: la macchina – l’algoritmo – migliora le proprie prestazioni sulla base dei dati che le vengono forniti.

La maggior parte dell’apprendimento automatico richiede un input costante da parte degli esseri umani e viene alimentata con set di dati per lo più etichettati, sebbene esistano anche algoritmi non supervisionati.

In Machine Learning ci sono tre categorie:

  • Apprendimento supervisionato
  • Apprendimento senza supervisione
  • Insegnamento rafforzativo
Deep Learning

Il Deep Learning è una versione superiore del Machine Learning che può, all’interno di un ambiente reale, apprendere per livelli di astrazione.

Come esempio più eclatante, si ricorda Sophia, l’androide in grado di riprodurre oltre 60 espressioni facciali umane e in grado di partecipare a dibattiti di alto profilo.

Robotics

La robotica è una branca dell’intelligenza artificiale che si concentra su diversi rami e applicazioni di robot. I robot AI sono agenti artificiali che agiscono in un ambiente reale per produrre risultati intraprendendo azioni responsabili.
Sophia l’umanoide è un buon esempio di intelligenza artificiale nella robotica.

Expert Systems

Un Expert System è un sistema informatico basato sull’Intelligenza Artificiale in grado di imparare le capacità decisionali di un umano esperto e di replicarle.

Un ES utilizza notazioni basate sulla logica if-then per arrivare a risolvere problemi complessi; non si basa, quindi, sulla programmazione procedurale convenzionale. Tra i principali campi di applicazione di questa branchia di AI, ci sono l’analisi prestiti, il rilevamento di virus, la gestione delle informazioni e le attività di strutture mediche.

Fuzzy logic

La Fuzzy logic (“logica sfocata”) può essere vista come un’evoluzione della logica booleana dello “0-1”, A differenza di quest’ultima, infatti, è un approccio informatico basato sui principi dei gradi di verità (“degrees of truth”) ed è quindi in grado di affrontare anche contesti ambigui. La FL è usata, ad esempio, in ambito medico per risolvere problemi complessi che riguardano il processo decisionale, ma anche nel controllo ambientale per la guida automatica del veicolo o, sempre sulle vetture, per la gestione del cambio automatico.

Natural Language Processing

Natural Language Processing (NLP) si riferisce alla scienza di trarre intuizioni dal linguaggio umano naturale al fine di comunicare con le macchine e far crescere le imprese.

Twitter utilizza la NLP per filtrare il linguaggio terroristico nei suoi tweet, Amazon utilizza la PNL per comprendere le recensioni dei clienti e migliorare l’esperienza dell’utente.

 
Scenari: oggi e il futuro

Dalle statistiche più recenti, risulta che a livello mondiale, i finanziamenti complessivi nel campo dell’Intelligenza Artificiale siano rivolti soprattutto alla realizzazione di applicazioni e di piattaforme di Machine Learning (quasi 28,5 miliardi di dollari a metà 2019). L’attuale scenario è ancora all’interno della Narrow AI.

Ma che cosa succederà nel futuro prossimo, quando cominceranno a svilupparsi forme di AGI (Artificial General Intelligence) e ASI (Artificial Super Intelligence)?
 
A differenza di quanto si potrebbe pensare, condizionati da un immaginario “cinematografico”, l’attuale interesse di business del settore non è focalizzato su robot di compagnia o al servizio delle nostre attività quotidiane. Il settore che maggiormente sta spingendo il mondo dell’AI è attualmente quello del Riconoscimento,  classificazione ed etichettatura di immagini statiche (8 miliardi di dollari), seguito dal Miglioramento delle prestazioni della strategia di trading algoritmico” (7,5 miliardi di dollari) e dall’Elaborazione efficiente e scalabile dei dati dei pazienti (7,4 miliardi di dollari). Almeno fino al 2025, lo scenario sarà un po’ meno futuristico e più “applicativo”.

keynumber01-ita
  
Project DOE Design of Experiment

Questo software può produrre piani di acquisizione sperimentale ridotta, utilizzando un approccio di «riempimento dello spazio», e costruire modelli basati su tali acquisizioni per simulare misurazioni reali che abbracciano tutto il dominio di interesse.
• Per i sistemi complessi (ad esempio il controllo di un motore) sono preferibili tecniche di riempimento dello spazio
• In questo caso particolare abbiamo utilizzato sequenze di Sobol

Project Statistical Modelling

E’ un software che modella il processo fisico, mediante tecniche di regressione del processo gaussiano, e utilizza i dati misurati per:

• Comprendere meglio un fenomeno fisico
• Ingrandire un set di dati creando misurazioni virtuali

Project Parameters optimisation

E’ un software per l’ottimizzazione matematica, basata su algoritmi genetici, di modelli software generici. Lo scopo principale del software è consentire all’utente di ottimizzare i parametri di un modello Simulink selezionato.

Project Artificial Intelligence for Image Processing

Il progetto è relativo alla realizzazione di un software integrato a bordo veicolo per l’interazione con i dati veicolari (Bus CAN ecc.) e per la visualizzazione su HW dedicato degli eventi ricevuti. è stato sviluppato inoltre un componente per centro servizi per la gestione delle immagini con tecnologie di computer vision.

Project Gitral

Gitral è un software Teoresi che permette di riconoscere tutti gli oggetti tipici presenti su un cluster, o più in generale su un HMI, a partire dagli screenshot presi da telecamere ad alta risoluzione. Gitral è in grado di rilevare:
– Icon / TellTale Status e frequenza
– Livello e posizione del grafico a barre
– Testo e numero
– Gauge position

Lo strumento è utile ad esempio in ambiente HIL (Hardware In the Loop) per automatizzare il piano di validazione di software HMI.
Infine il protocollo CAN, tramite messaggi specifici, o il protocollo socket può essere utilizzato per comunicare con Gitral, quando richiesto.

 
Invia un messaggio, la persona giusta risponderà

    Accetto i termini d’uso e la privacy policy