blogtecaolivelli

I litigi online dei robot che correggono Wikipedia


27 febbraio 2017
Cortesia WikipediI software autonomi che operano suInternet possono avere comportamentiimprevedibili: secondo una nuova analisii robot di editing delle voci di Wikipedia sicorreggono a vicenda dando luogo a lunghe"contese", secondo una cadenza legata allalingua e al contesto culturale.La scoperta invita alla prudenza nell'usodell'intelligenza artificiale in contesti delicaticome la sicurezza informatica e la guida autonomadei veicoli(red)computer scienceinternetintelligenza artificiale"I robot si comportano in modo più umano diquanto ci si aspetti".La frase potrebbe sembrare tratta da un vecchiolibro di fantascienza, uno di quelli in cui s'immaginaval'avvento futuro di robot umanoidi simili a noi non solonell'aspetto fisico, ma anche nelle capacità cognitive.Invece è il commento di un gruppo di ricercatoridell'Università di Oxford e dell'Alan Turing Institute,nel Regno Unito, sui risultati di una loro ricerca,migliorare le voci dell'enciclopedia online Wikipedia.Gli autori hanno analizzato il comportamentodi questi automi dal 2001 al 2010, scoprendoche spesso "litigano" tra di loro - a volte per anni -sul testo da pubblicare online.
Cortesia WikipediaQuesti programmi d'intelligenza artificiale possonoavere diversi compiti.I robot di editing per esempio rimediano agli atti divandalismo, fanno rispettare le regole, controllanol'ortografia, creano link e importano contenuti automaticamente.Altri tipi di automa si occupano di cercare e identificaredati oppure scovare violazioni dei diritti d'autore.Il primo dato emerso dall'analisi è che gli automi sicomportano in modo differente a seconda delle linguee dai contesti culturali utilizzati.L'edizione tedesca di Wikipedia, per esempio, avevail più basso numero di conflitti tra robot: nell'arco di10 anni, ciascun software ha infatti cancellato lecorrezioni di un altro in media 24 volte.Ciò è indice di una relativa efficienza, se paragonatoper esempio con l'edizione portoghese, in cui lecancellazioni di ogni robot sono state in media 185 in10 anni. L'edizione inglese si è collocata a metàclassifica, con una media di 105, pari a circa trevolte il tasso di correzioni operate da essere umani.Il secondo risultato di rilievo è che anche semplicialgoritmi autonomi possono produrre interazionicomplesse, dalle conseguenze inattese: si correggonoa vicenda, dando vita a contese che possonocontinuare per anni, e in alcuni casi raggiungereuna situazione di stallo.Le differenze di comportamento tra editor umanie robotici sono notevoli. In media, gli esseri umanicorreggono una voce la prima volta dopo due minuti,la seconda dopo 24 ore e la terza dopo un anno.I software invece impiegano circa un mese a farela prima correzione, ma poi vanno avanti anni acorreggersi reciprocamente.Secondo gli autori, nel web si è creato un vero e proprioecosistema di robot, ma sappiamo ancora molto pocosu come interagiscono.E' quindi necessario impegnarsi per colmare questalacuna, dato che l'intelligenza artificiale è semprepiù utilizzata, anche in contesti delicati come lasicurezza digitale o la guida autonoma dei veicoli."C'è una tendenza a dimenticare che il coordinamentotra diversi agenti robotici collaborativi viene spessoraggiunto solo in un contesto di regole che facilitanoi risultati voluti", ha sottolineato Luciano Floridi,coautore dello studio."Questa etica infrastrutturale dev'essere progettataaltrettanto attentamente degli agenti robotici che vi operano".