Google, Facebook, Microsoft: perché tutti vogliono il Deep Learning

Written by Insem Webmarketing on . Posted in Deep learning, INNOVAZIONE DIGITALE, pubblicità online, Web semantico

 Deep learning

Anche Microsoft, dopo Google e Facebook, si cimenta con il Deep Learning, ma con risultati di maggior successo anche rispetto al cervello umano.

Ma Perché tutti vogliono il Deep Learning?

Il cosiddetto “apprendimento profondo” ovvero il Deep Learning, è da un po’ di tempo oggetto di attenzioni da parte dei colossi dell’informatica e del web: Google e Facebook, in primis, in un’agguerrita concorrenza tra di loro, hanno infatti messo su una vera e propria “task force” tecnologica in questo senso. Lo scopo è quello di mettere a punto software ed algoritmi in grado di imitare il funzionamento del cervello o almeno dei neuroni, per scavare in profondità all’interno dei contenuti online.

 

Google-Deep mind

Oggi anche il colosso Microsoft ha sviluppato, al pari dei Big, tra cui inseriamo anche Apple e Baidu, un sistema simile che ha ottenuto risultati migliori di quelli del cervello umano, con un tasso di errore del 4,94% contro il  5,1% degli osservatori umani. L’esperimento si è basato sul riconoscimento e la conseguente catalogazione di immagini, e nello specifico sulle fotografie del database ImageNet costituito da 1000 opzioni. il risultato ha sbaragliato la “concorrenza” ( Facebook)  che si era fermata ad un tasso di errore del 6,66%. In ogni caso i risultati dell’esperimento non dimostrano in assoluto la superiorità di questi sistemi computerizzati rispetto al cervello umano, in quanto il margine di errore delle “macchine” è ancora molto alto. Almeno per il momento, verrebbe da dire.

Una cosa è certa: l’acquisto del colosso londinese  Deep Mind, da parte di Google, per il quale lavorano o hanno lavorato tutti i “cervelloni” assoldati dai grandi Big dell’informatica e del Web( Facebook, Google, Apple) è una prova abbastanza concreta che la direzione intrapresa è ormai questa.

 Deep learning-facebook

 “Scavare nei contenuti online” per acquisirne una conoscenza profonda al fine di  monetizzare in termini di marketing e pubblicità, a partire dalle ricerche effettuate dagli utenti sul web, è diventata una strategia d’azione concreta già con il web semantico  e con l’introduzione dell’algoritmo Hummingbird, con cui le ricerche su Google si sono concentrate sulla capacità di risposta veloce anche alle richieste più complesse, lunghe ed articolate.

“Un futuro sempre più dominato, quindi, dal web semantico, in cui software e algoritmi che imitano i flussi cerebrali saranno in grado di intrepretare i post dei social network come Facebook, senza bisogno di riconoscere le parole chiave. Un approccio semantico in cui i contenuti verranno riconosciuti in maniera più intuitiva e quindi immediatamente e più facilmente sfruttati dalla pubblicità online, soprattutto per colossi come Facebook, il cui core business  si basa sullo sfruttamento dei dati che emergono, giorno dopo giorno, ora dopo ora, dai comportamenti degli utenti  sul celeberrimo Social.”

In un contesto del genere, infatti, i social network assumono un ruolo predominante perché rappresentano la concretizzazione di “azioni” reali (benché perpetrate tramite un mezzo digitale), in quanto rappresentativo di sentimenti , impressioni, comportamenti, preferenze, scelte, verso determinati contenuti( immagini, post scritti, video, immagini) piuttosto che altri.

Ma quale lo scopo o la conseguenza di tutto questo?

“La conseguenza di tutto questo, sarà quella di produrre pubblicità online sempre più mirata evitando discrepanze  non pertinenti tra quest’ultima ed il contenuto ad essa associato. Tutto il web andrà verso infrastrutture più efficienti, dominate dalla conoscenza e non da dati strutturati, al fine di organizzare al meglio i contenuti testuali, patrimonio delle aziende, ma anche in grado di valorizzare il capitale intellettuale e gestire l’esperienza individuale.”

Oltre ai social network, un enorme bacino di utenza attiva è fornita in questo senso dagli utenti che effettuano ricerche via mobile. Tempo fa, a questo proposito, il giornale Wired stilò una classifica su dati Expert System relativa ai 10 trend più attuali della ricerca semantica. Oltre ad una significativa diminuzione, nelle ricerche online, delle parole chiave così come le intendiamo oggi, la classifica dava una certa importanza alla ricerca semantica effettuata via mobile, “dove la navigazione coinciderà con la ricerca, andando quindi molto oltre la logica delle parole chiave. In seconda posizione si colloca l’interazione in linguaggio naturale, ovvero la crescita di servizi che porranno domande più intuitive ed intelligenti su quello di cui si ha bisogno. Dal canto loro, i Social Network forniranno le informazioni necessarie, data l’immensa mole di elementi da sfruttare, per distillare dal flusso di dati il sentimento generale e gli indizi funzionali per un orientamento più consapevole.”

Non c’è da stupirsi se quindi, il “Deep learning”, con i suoi algoritmi e software iper sofisticati, soppianterà le attuali logiche con cui si effettuano le principali ricerche online ma soprattutto l’approccio tra utente e mondo digitale, specialmente quello dominato dai motori di ricerca e dalle piattaforme Social.

L’imitazione dell’intelligenza umana ha lo scopo di interpretare il pensiero degli utenti in maniera il più possibile precisa, o simile, cercando di restituire risultati anche solo basati sulle “intenzioni” degli utenti, addirittura prevenendo i desideri degli “naviganti” e andando a scandagliare attraverso i dati lasciati in rete (e registrati, da Facebook a Google in immensi database), gusti e necessità di chi naviga on line, di chi lascia commenti, di chi carica immagini, di chiunque compia un’azione su internet, che passi dalla ricerca online alla registrazione ad un social con relativa partecipazione alle sue dinamiche interne e così via.

Lo studio sulle “reti neurali” ha avuto origine negli anni ’50 ma solo oggi grazie ad un’enorme disponibilità di dati ed una potenza di calcolo mai vista nella storia umana il “sogno” di creare macchine in grado di imitare il funzionamento del cervello umano potrebbe diventare realtà.

Il primo risultato è stato il riconoscimento vocale e visivo:

 “Nel giugno del 2012, utilizzando questo tipo di software, Google ha dimostrato di aver compiuto passi da gigante in questo settore, sottoponendo al sistema 10 milioni di video YouTube e ottenendo che riconoscesse in essi oggetti specifici (ad esempio, la presenza di gatti).” Panorama

 Deep learning-cats

Questo, però, come abbiamo ben capito leggendo sull’argomento, è soltanto l’inizio, o meglio, la direzione. L’enorme volume di informazioni e dati forniti dagli utenti sul web ha a questo scopo un valore incommensurabile. Ciò che oggi sembra gratis, all’utente medio e in un certo senso “sprovveduto”, ha un valore che non si può definire su due piedi. Carpire la relazione tra gli oggetti, le cose, i pensieri e le azioni sul web partendo dai dati stessi, carpire quindi il segreto del funzionamento del cervello umano e riprodurlo a scopi di mercato, è la sfida del presente e dell’immediato futuro per Google e tutti i suoi competitor, di cui per ora Facebook è il più preoccupante.

 

“Nanobot nel sangue, cervelli connessi alle tecnologie cloud, intelligenza artificiale equiparabile a quella umana: è il futuro immaginato da Google.”

Dal momento che Google, Facebook & Co per portare avanti le loro ricerche non hanno soltanto sistemi informatici in grado di imitare il cervello umano ed il suo funzionamento, ma hanno anche assunto scrittori, scienziati o comunque esperti “futurologi” ( uno su tutti il geniale Ray Kurzweil ) per approntare azioni in grado di prevedere l’andamento del web futuro e di indovinare sistemi per dominare in maniera sempre più massiva il mercato, per il nostro prossimo futuro si potrebbero quindi trarre conclusioni che vedono al centro una realtà digitale costruita sulle nostre esigenze, anche le più recondite e con un margine di errore sempre più basso. In sostanza, un sistema di “scatole cinesi”, in cui l’essere umano che userà attivamente le tecnologie informatiche e digitali si troverà ad essere inglobato in sistemi esponenzialmente più grandi di lui e difficili da controllare. In un contesto del genere, probabilmente, la sfida culturale del terzo millennio potrebbe fare leva su un dibattito per nulla originale, già visto e sentito, ma dotato di una “pelle nuova”, improntato sul concetto di libertà dell’individuo e predominio dei massimi sistemi. Arrivare ad un dibattito del genere vorrà dire aver di per sé comunque preso coscienza del cambiamento in atto, alla base di un sano quanto propositivo pensiero controcorrente.

Fonti: Wired, Blog Web mraketing Insem, Webnews

 

Tags: , , , , , , , , ,