L’intelligenza artificiale di Google dice agli utenti di aggiungere colla alla pizza, mangiare pietre e produrre cloro gassoso

Published:

Updated:

Author:

Disclaimer

As an affiliate, we may earn a commission from qualifying purchases. We get commissions for purchases made through links on this website from Amazon and other third parties.


L’IA di Google propone idee sorprendenti agli utenti

Google ha integrato un’intelligenza artificiale (AI) nel suo motore di ricerca, ma le segnalazioni indicano che l’IA consiglia agli utenti di compiere azioni bizzarre come mangiare sassi, aggiungere colla sulle pizze e utilizzare cloro gassoso, secondo diverse fonti online.

In un caso eclatante, l’AI sembrava suggerire di saltare dal Golden Gate Bridge a un utente che cercava informazioni su sensazioni depressive, sollevando preoccupazioni sulle risposte generate.

Scoperta la funzione “Panoramiche AI” di Google

Google ha presentato il nuovo strumento sperimentale chiamato “Panoramiche AI”, il quale riassumerebbe i risultati di ricerca utilizzando il modello Gemelli di intelligenza artificiale. Questa funzionalità è stata lanciata per alcuni utenti negli Stati Uniti, con un rilascio globale previsto entro l’anno.

Nonostante le promesse innovative, l’IA ha generato scalpore sui social media per aver usato fonti inaccurare o spoof, come articoli satirici e post comici su Reddit, per generare alcuni riassunti.

Contenuti sbagliati e affermazioni fuorvianti

Un’ulteriore precisazione errata, generata dall’AI di Google, riguarda Barack Obama, etichettato in modo impreciso come musulmano in alcuni contesti. Questi errori mettono in luce la complessità dell’utilizzo delle IA per fornire risposte accurate e affidabili.

Le inesattezze nel contenuto generato dall’IA sollevano dubbi sulla sua attendibilità e sottolineano la necessità di monitoraggio e controllo accurati durante lo sviluppo e il rilascio di tali tecnologie innovative.

Il fenomeno delle notizie false generate da IA

Recenti scoperte rivelano che informazioni errate vengono diffuse da intelligenze artificiali. Google sottolinea che la maggior parte degli errori si basa su query insolite e non rappresentative.

Qualità delle informazioni

Secondo Google, la stragrande maggioranza degli output delle intelligenze artificiali è di alta qualità, offrendo link per approfondire ulteriormente. Test approfonditi sono stati condotti prima del lancio per garantirne la qualità.

Fenomeno delle “allucinazioni” AI

Questo fenomeno non è nuovo: modelli di intelligenza artificiale generativa possono creare notizie false, definite “allucinazioni”. È accaduto che ChatGPT inventasse uno scandalo di molestie sessuali, citando fonti immaginarie come prova.

About the author

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Latest Posts