Come l’intelligenza artificiale sta cambiando l’editoria scientifica

La ricercatrice scientifica Elizabeth Beck teme che l’afflusso di immagini e testi generati dall’intelligenza artificiale nei documenti accademici possa erodere la fiducia nella scienza.

Illustrazione di un topo con un pene incredibilmente grande. Un altro disegno mostra gambe umane con un gran numero di ossa. Un’introduzione che inizia con “Certo, questa è una possibile introduzione al tuo argomento”.

Questi sono alcuni degli esempi più eclatanti di intelligenza artificiale che hanno recentemente fatto il loro ingresso nelle riviste accademiche, facendo luce sull’ondata di testi e immagini generati dall’intelligenza artificiale che stanno investendo il settore dell’editoria accademica.

Diversi esperti che seguono i problemi negli studi hanno detto all’AFP che l’ascesa dell’intelligenza artificiale ha esacerbato i problemi esistenti in un settore che vale miliardi di dollari.

Tutti gli esperti hanno sottolineato che i software di intelligenza artificiale come ChatGPT potrebbero essere uno strumento utile per scrivere o tradurre documenti di ricerca, se attentamente controllati e divulgati.

Ma questo non è stato il caso di diversi casi recenti che in qualche modo sono sfuggiti alla peer review.

All’inizio di quest’anno, un’immagine vividamente disegnata dall’intelligenza artificiale di un topo con genitali enormi è stata ampiamente diffusa sui social media.

Lo studio è stato pubblicato su una gigantesca rivista accademica chiamata Frontiers, che in seguito ha ritirato lo studio.

Un altro studio è stato ritirato il mese scorso a causa di un grafico AI che mostrava gambe con ossa multi-articolate che assomigliano a mani.

Sebbene questi esempi fossero immagini, si ritiene che ChatGPT, un chatbot lanciato nel novembre 2022, sia ciò che ha cambiato radicalmente il modo in cui i ricercatori di tutto il mondo presentano le loro scoperte.

Uno studio pubblicato da Elsevier a marzo è diventato virale per la sua introduzione, che era chiaramente un messaggio ChatGPT che diceva: “Certo, ecco una possibile introduzione al tuo argomento”.

Diversi esperti hanno dichiarato all’AFP che esempi così imbarazzanti sono rari ed è improbabile che superino il processo di revisione tra pari in riviste più prestigiose.

Ribaltamento nelle cartiere

L’uso dell’intelligenza artificiale non è sempre facile da rilevare. Ma un indizio è che ChatGPT tende a favorire determinate parole.

Andrew Gray, bibliotecario dell’University College di Londra, ha esaminato milioni di articoli di ricerca alla ricerca di un uso eccessivo di parole come preciso, complesso o lodevole.

È stato stabilito che almeno 60.000 documenti di ricerca riguarderanno l’uso dell’intelligenza artificiale nel 2023, ovvero oltre l’1% del totale annuale.

“Nel 2024 vedremo un aumento significativo dei numeri”, ha detto Gray all’AFP.

Nel frattempo, lo scorso anno sono stati ritirati più di 13.000 documenti, il numero più alto mai registrato nella storia, secondo il gruppo statunitense Retraction Watch.

Ivan Oransky, co-fondatore di Retraction Watch, ha dichiarato all’AFP che l’intelligenza artificiale ha consentito a cattivi attori dell’editoria scientifica e del mondo accademico di “produrre surplus” di documenti “spazzatura”.

Tra i cattivi attori ci sono le cosiddette cartiere.

Elisabeth Beck, una ricercatrice olandese specializzata nell’individuare la manipolazione di immagini scientifiche, ha affermato che questi “truffatori” vendono i diritti d’autore ai ricercatori e pubblicano enormi quantità di ricerche di pessima qualità, rubate o false.

Si ritiene che il 2% di tutti gli studi siano pubblicati dalle cartiere, ma il tasso sta “aumentando drammaticamente” man mano che l’intelligenza artificiale apre le chiuse, ha detto Beck all’AFP.

Questo problema è stato evidenziato quando il gigante dell’editoria accademica Wiley ha acquistato la casa editrice in difficoltà Hindawi nel 2021.

Da allora, la società americana ha ritirato più di 11.300 documenti relativi ai numeri speciali della rivista Hindawi, ha detto all’AFP un portavoce di Wiley.

Wiley ha ora introdotto un “Servizio di rilevamento delle cartiere” per rilevare gli abusi dell’intelligenza artificiale, che a sua volta è alimentato dall’intelligenza artificiale.

“circolo vizioso”

Oransky ha sottolineato che il problema non risiede solo nelle cartiere, ma in una cultura accademica più ampia che spinge i ricercatori a “pubblicare o perire”.

“Gli editori hanno ottenuto margini dal 30 al 40% e miliardi di dollari di profitti creando questi sistemi che richiedono volumi elevati”, ha affermato.

Ha affermato che la crescente domanda di sempre più documenti di ricerca sta esercitando pressioni sugli accademici che vengono incasellati dalla loro produzione, creando un “circolo vizioso”.

Molte persone si sono rivolte a ChatGPT per risparmiare tempo, il che non è necessariamente una cosa negativa.

Poiché quasi tutti gli articoli scientifici sono pubblicati in inglese, Beck ha affermato che gli strumenti di traduzione basati sull’intelligenza artificiale potrebbero essere preziosi per i ricercatori – inclusa lei stessa – per i quali l’inglese non è la loro prima lingua.

Ma si teme anche che errori, invenzioni e plagi involontari da parte dell’intelligenza artificiale possano erodere sempre più la fiducia della società nella scienza.

La settimana scorsa è venuto alla luce un altro esempio di uso improprio dell’intelligenza artificiale, quando un ricercatore ha scoperto quella che sembrava essere una versione riscritta di ChatGPT per uno dei suoi studi pubblicati su una rivista accademica.

Samuel Payne, professore di bioinformatica alla Brigham Young University negli Stati Uniti, ha detto all’AFP che gli era stato chiesto di rivedere lo studio a marzo.

Dopo aver realizzato che si trattava di “plagio al 100%” dal suo stesso studio – ma con il testo apparentemente rielaborato da un programma di intelligenza artificiale – ha rifiutato l’articolo.

Payne si è detto “scioccato” nello scoprire che il lavoro rubato era stato semplicemente pubblicato altrove, nella nuova rivista di Wiley chiamata Analisi delle proteine.

Non è stato annullato.

© 2024 Agenzia France-Presse

MartirioUn’ondata di “spazzatura”: come l’intelligenza artificiale sta cambiando la pubblicazione scientifica (2024, 10 agosto) Estratto il 10 agosto 2024 da https://phys.org/news/2024-08-junk-ai-scientific-publishing.html

Questo documento è soggetto a copyright. Nonostante qualsiasi comportamento leale a scopo di studio o ricerca privata, nessuna parte di esso può essere riprodotta senza autorizzazione scritta. Il contenuto è fornito solo a scopo informativo.

READ  Scopri come si confronta l'aggiornamento di nuova generazione di Fallout 4 con la versione precedente

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Torna in alto