Google tocca l'apprendimento automatico per aiutare gli editori a identificare troll e commenti tossici

Non sarebbe bello se l'apprendimento automatico potesse essere applicato per migliorare i commenti e altre conversazioni online? Grandi e piccoli editori allo stesso modo, da New York al sito che stai leggendo, stanno spendendo risorse significative per impedire ai troll di bombardare i lettori con commenti tossici.

Una nuova tecnologia di Google basata sull'apprendimento automatico si impegna ad automatizzare il processo di ordinamento attraverso milioni di commenti, aiutando a identificare e contrassegnare i commenti offensivi che minano uno scambio civile di idee.

In collaborazione con Jigsaw, Google ha lanciato Perspective, una tecnologia in fase iniziale basata sull'apprendimento automatico che può aiutare a identificare i commenti tossici sul Web. L'API Perspective ufficiale consente agli editori di utilizzare questa tecnologia per i loro siti Web.

Google spiega come funziona:

La prospettiva esamina i commenti e li classifica in base alla loro somiglianza con i commenti che le persone hanno detto che erano "tossici" o che potrebbero far uscire qualcuno da una conversazione. Per imparare a individuare un linguaggio potenzialmente tossico, Perspective ha esaminato centinaia di migliaia di commenti che erano stati etichettati da revisori umani.

Ogni volta che Prospettiva trova nuovi esempi di commenti potenzialmente tossici o viene fornita una correzione da parte degli utenti, può migliorare il punteggio dei commenti futuri.

Dopo che il sistema ha identificato i commenti tossici, gli editori possono contrassegnarli affinché i propri moderatori possano esaminarli e includerli in una conversazione. I lettori possono anche ordinare i commenti per tossicità, al fine di far emergere le conversazioni che contano. Il sistema potrebbe anche consentire ai commentatori di vedere la potenziale tossicità del loro commento mentre lo scrivono.

Pensi che la pesca a traina non sia un grosso problema?

Ancora una volta: il New York Times ha un'intera squadra incaricata di rivedere una media di 11.000 commenti ogni giorno. A causa della forza lavoro necessaria per rivedere i commenti, il documento ha commenti solo sul 10% circa dei suoi articoli.

Google e il Times hanno collaborato per formare modelli di apprendimento automatico in modo che i moderatori possano ordinare i commenti più rapidamente. Quando Prospettiva viene lanciata pubblicamente e molti altri editori lo accettano, il sistema sarà esposto a più commenti e svilupperà una migliore comprensione di ciò che rende tossici alcuni commenti.

"Il nostro primo modello è progettato per individuare il linguaggio tossico, ma nel prossimo anno desideriamo collaborare e fornire nuovi modelli che funzionano in lingue diverse dall'inglese, nonché modelli in grado di identificare altre prospettive, ad esempio quando i commenti non sono sostanziali o fuori tema ", ha affermato Google.

Secondo DataSociety, il 72% degli utenti di Internet americani ha assistito a molestie online e quasi la metà lo ha sperimentato personalmente. Quasi un terzo degli intervistati ha dichiarato di autocensurare ciò che pubblicano online per paura di punizione. Si stima che le molestie online abbiano influenzato la vita di circa 140 milioni di persone negli Stati Uniti e molte altre ancora.

Fonte: Google