INTELLIGENZA ARTIFICIALE GENERATIVA IN MEDICINA: L’Intelligenza Artificiale può distorcere i dati e produrre false informazioni

Generative AI

L’Intelligenza Artificiale, se non gestita, è in grado di distorcere i dati e produrre false informazioni

Secondo la società di ricerca Gartner, nei prossimi anni, la maggior parte delle persone nelle economie sviluppate consumerà più informazioni false che informazioni reali.

Gartnner ha anche avvertito che mentre l’intelligenza artificiale si sta dimostrando efficace nella creazione di nuove informazioni, è altrettanto capace di distorcere i dati e produrre false informazioni.

Per una persona che opera nel marketing diventa, quindi, primario controllare che gli strumenti di intelligenza artificiale funzionino correttamente

E’ impossibile riconoscere il testo generato dall’Intelligenza Artificiale

La stessa OpenAI ammette di aver fallito nel tentativo di creare un classificatore in grado di riconoscere il testo generato dall’Intelligenza Artificiale ( IA )

A fine gennaio 2023, OpenAI ha annunciato di aver istruito un classificatore IA incaricato di riconoscere il testo generato dalle intelligenze artificiali, permettendo così di distinguerlo da quanto scritto da un essere umano. Uno strumento, secondo la software house, utile per contrastare il fenomeno delle diffusione di false informazioni. Una finalità nobile, se non fosse che i risultati restituiti si siano fin qui rivelati deludenti.

Testo generato dall’Intelligenza Artificiale: nemmeno OpenAI lo sa riconoscere

OpenAI ha deciso di abbandonare il progetto. O meglio, di accantonare il tool presentato all’inizio dell’anno, ritenuto poco preciso e di conseguenza poco efficace. Nel post sul blog ufficiale, il team dichiara di essere al lavoro su nuovi metodi utili a identificare i contenuti audio e visivi creati dagli algoritmi, senza però specificare alcuna tempistica per la loro introduzione ( e confermando tacitamente di aver gettato la spugna sul fronte dei testi ).

Al 20 luglio 2023, il classificatore IA non è più disponibile a causa del suo basso tasso di precisione. Stiamo lavorando per incorporare i feedback e, al momento, siamo alla ricerca di tecniche più efficaci per identificare la provenienza di un testo. E ci siamo impegnati a sviluppare e a implementare meccanismi che permettano agli utenti di capire se gli audio o i contenuti visivi siano generati dall’intelligenza artificiale.

Fonte: PuntoInformatico.it [ LINK all’Articolo: https://www.punto-informatico.it/impossibile-riconoscere-testo-generato-ia/ ]

[ L’immagine è tratta dal blog di Intuitivex ]

 

XAGENA MEDICAL SEARCH

Motore di Ricerca in Medicina: MediExplorer.it – Motore di Ricerca sui Farmaci: FarmaExplorer.it

Motori di Ricerca per Specialità Medica: 

Cardiobase.it – Dermabase.it – EndoBase.it – Ematobase.it – 

GastroBase.it – Gynebase.it – Neurobase.it – Pneumobase.it – 

RareBase.it – ReumaBase.it

LE NEWS CONTENUTE NEI DATABASE XAGENA SONO TRATTE DALLA LETTERATURA INTERNAZIONALE

 

 

XagenaNewsletter

INTELLIGENZA ARTIFICIALE GENERATIVA IN MEDICINA: L’Intelligenza Artificiale può distorcere i dati e produrre false informazioniultima modifica: 2023-09-10T23:47:41+02:00da tiberis1