L’intelligenza artificiale è davvero utile e necessaria? Perché Google ne ha paura

Il boom di ChatGpt, l’algoritmo di intelligenza artificiale che crea contenuti automaticamente come se fossero scritti da un essere umano (o quasi) sta facendo paura a molte organizzazioni.

Ma quali sono i risvolti concreti, etici e non solo, che stanno scaturendo dai potenziali abusi dei programmi di intelligenza artificiale? Quali sono le opportunità e i rischi di questa evoluzione?

chatgpt
L’intelligenza artificiale fa paura a Google, ma non solo…

Proviamo ad anticipare cosa potrebbe avvenire tra breve…

Google sta per perdere la sua leadership?

Fino ad oggi la maggior parte degli utenti ha utilizzato quotidianamente Google per ricercare informazioni in rete. Tuttavia, l’avvento di ChatGpt da parte di OpenAI potrebbe cambiare realmente le carte in tavola.

intelligenza artificiale
L’intelligenza artificiale apre intensi dibattiti

ChatGpt è infatti un prototipo di chatbot basato sull’intelligenza artificiale e sul machine learning, sviluppato da una compagnia che è da tempo specializzata nella conversazione della macchina con l’utente umano. Tra i suoi fondatori, tra gli altri, c’è anche il numero 1 di Tesla, Elon Musk, che si è comunque dimesso dal consiglio di amministrazione dell’organizzazione per un potenziale conflitto di interessi.

Le differenze sono notevoli. Se infatti un utente che utilizza Google riceve i link alle pagine ritenute più pertinenti, usando ChatGpt lo stesso utente ottiene qualcosa in più (o in meno, a seconda di come la si pensi): un’unica risposta basata sulla propria ricerca e sulla sintesi di tali informazioni.

È proprio questa, in fondo, la principale minaccia che ChatGpt sta proponendo sul mercato: fornire una risposta unica e immediata che non richiede ulteriori scansioni di siti web.

I pericoli di ChatGpt

Se quanto sopra è uno degli aspetti più positivi di ChatGpt, uno degli aspetti più negativi è l’attendibilità delle informazioni prodotte. ChatGpt non rivela infatti le fonti delle sue informazioni e, probabilmente, nemmeno i suoi criteri sanno esattamente come l’algoritmo riesce a generare le risposte che ottiene. Di qui, la sua fondamentale debolezza: a volte le sue risposte sono sbagliate.

Ma quanto sono sbagliate le risposte di ChatGpt? Per il momento, non è dato saperlo. Alcune stime molto approssimative affermano che il tasso di errore potrebbe essere compreso tra il 2% e il 10%, ma molto dipende dal tipo di contenuto da proporre e dal tipo di linguaggio utilizzato. Un margine così rilevante – che in futuro potrebbe comunque ridurre la propria incidenza – potrebbe rendere molti utenti diffidenti nell’utilizzare ChatGpt per ottenere le informazioni più importanti, come quelle mediche e legali.

Insomma, la sfida tra OpenAI e Google è lanciata. Difficile, al momento, dire chi possa spuntarla: dalle parti di Mountain View, nel dubbio, si stanno attrezzando per rispondere in maniera più adeguata agli attacchi di ChatGpt, su cui pare che Microsoft abbia già messo gli occhi, e i soldi.

Impostazioni privacy