In un anno, è aumentato del 50% il
traffico su Wikipedia, soprattutto quello inerente il download
di immagini e video. Un boom che si deve, come spiega Wikimedia
Foundation che gestisce l’enciclopedia online, all’ascesa
dell’intelligenza artificiale generativa. La crescita negli
accessi non riguarda infatti utenti in carne e ossa ma i
‘crawler’, ossia i programmi automatizzati che estraggono
contenuti multimediali dai siti web per addestrare i modelli di
IA. Un’operazione lecita quando si tratta di Wikipedia, che
ospita file liberi da copyright, ma non esente da conseguenze.

   
“La nostra infrastruttura è costruita per sostenere picchi di
traffico improvvisi durante eventi di grande interesse” spiega
la Wikimedia Foundation in un post sul blog ufficiale “ma la
quantità di traffico generata dai bot è senza precedenti e
presenta rischi e costi crescenti”. Wikipedia fornisce contenuti
ai suoi utenti tramite una rete globale di data center. Quando
un articolo viene richiesto più volte, il contenuto viene
conservato nel data center più vicino all’utente. A differenza
nei navigatori, che tendono a concentrarsi su argomenti
specifici, i bot di IA accedono a un’ampia gamma di articoli in
blocco, inclusi file, immagini e video poco richiesti. Questo
comporta un maggiore dispendio di risorse per Wikimedia, che
deve rendere disponibile un archivio maggiore, a costi più
elevati per il suo data center centrale. La fondazione
sottolinea inoltre l’importanza di riconoscere la fonte dei
contenuti, al fine di incentivare nuovi utenti a partecipare e
contribuire. “I nostri contenuti sono gratuiti, la nostra
infrastruttura no” afferma. Tra le possibili soluzioni, la
Foundation valuta la creazione di sistemi di attribuzione più
rigorosi e la definizione di linee guida chiare per
l’addestramento dei modelli di intelligenza artificiale.

   

Riproduzione riservata © Copyright ANSA

source