Yahoos missbrukande algoritm fungerar 90% av tiden och det är ett stort steg framåt inom sitt område

datoralgoritmhjälp

Yahoos nyhetsartiklar har gott om otrevliga kommentarer, ungefär som resten av internet, så Yahoo-teamet bestämde sig för att använda deras kommentarsektion för att utveckla en algoritm som framgångsrikt kunde identifiera de värsta gärningsmännen. Deras ny algoritm för att upptäcka missbruk arbetar 90 procent av tiden, vilket de säger gör det mer effektivt än andra organisationers försök att ta på sig liknande bedrifter, och beskrivs som ett stort steg framåt på fältet. 90 procent gör låter ganska bra, erkänner jag.

Trådbundet rapporterar att Yahoo också släpper ut den första allmänt tillgängliga kurerade databasen över hatprat online som en del av sitt projekt för att bekämpa missbruk. Detta innebär att andra webbplatser kommer att kunna använda Yahoos databas med kommentarer för att utforma sina egna algoritmer. Yahoos algoritm utvecklades baserat på maskininlärning och även på användarrapporterad data om deras kommentarer.

Den svåraste delen av en kommentarmodererande algoritm är att hantera falska positiva. Många algoritmer som upptäcker missbruk letar efter specifika ord eller fraser, som fördröjningar eller vanliga förolämpningar, och flaggar automatiskt kommentarerna för moderering. Detta resulterar dock i att kommentarer blir flaggade även om de hänvisar till en slur i samband med att de säger att det inte är lämpligt, till exempel, eller om kommentaren är en sarkastisk imitation av ett troll. Yahoos algoritm kan tydligen upptäcka vissa talmönster, och den är utformad för att kunna se skillnaden mellan skämtsarkasm och faktiskt missbruk. (Naturligtvis, om din lustiga kommentar inte kan skiljas från faktiskt missbruk, är jag ganska säker på att algoritmen fortfarande kommer att flagga den, men jag kan inte säga med säkerhet hur den delen av AI fungerar.)

Yahoo anlitade utbildade kommentarmoderatorer för att hjälpa till att göra algoritmen perfekta, och de betalade också några utbildade moderatorer, och de fann att de utbildade moderatorerna var mycket bättre på att ta reda på vilka kommentarer som var lämpliga (typ av ingen idé, men hej). Under utvecklingen av AI fann Yahoo att arbetet med dessa utbildade mänskliga moderatorer var avgörande för att bibehålla algoritmens effektivitet och förbättra dess detekteringstekniker.

Självklart, algoritmer har fortfarande fördomar , vilket skulle kräva att ett (förhoppningsvis mångsidigt) team av mänskliga moderatorer fortsätter att upprepa metoderna som används för att klassificera kommentarer. Låter som ett tufft jobb, men åtminstone förstår Yahoo nu vikten av att träna och värdera rollerna för både deras välutbildade mänskliga moderatorer och deras nya AI-kollega.

abella anderson barnsligt gambino förhållande

(via Nästa webb , bild via Michael Cordedda / Flickr )