AI Википедии может автоматически определить плохие правки

В Википедии появился новый искусственный интеллект, и это может сделать веб-сайт намного удобнее для начинающих авторов. ИИ, получил название Объективно ревизионной службы оценки (ORES), будет проверять недавно внесенные изменения, чтобы находить дополнения, которые выглядят как потенциальный спам или тролинг. Его создатели, из Wikimedia Foundation, говорят, что ” это функция работает как пара рентгеновских очков”, так как она выдвигает на первый план все, что кажется подозрительным. Затем он выделяет эту часть статьи для редакторов, чтобы посмотреть на нее более внимательно. Если персонал Wiki решает пересмотреть соответствие статьи, автор будет получать уведомление – это намного лучше, чем старая практика веб-сайта в удалении статьи или ее части без объяснения причин.

ORES способен различать непреднамеренные ошибки человека и то, что называется «вредными изменениями” с помощью Wiki оценок качества статьи в качестве примера. Теперь, можно использовать искусственный интеллект, чтобы проверять отредактированный участок на наличие вредных ошибок.

В этом примере показано, что видит обычный редактор слева и что видит ORES справа. “Ложь” или бесполезную информацию ORES определяет с помощью оценки вероятности которая равна 0,0837 для не правдивой информации, в то время для “правды” оценка вероятность 0,9163. Как вы можете видеть, “llamas grow on trees” точно не несет никакой пользы и не является правдивой информацией.

Как Wikimedia указала в своем заявлении: “Это не первый разработанный ИИ для помощи редакторам следить за содержанием сайта. Тем не менее, старые инструменты не могут отличить вредоносный контент от простой человеческой ошибки, что делает ORES лучшим выбором, если Википедия не хочет потерять еще больше авторов.”

Обратный звонок

*Поля обязательны для заполнения.

 9:00 - 12:00 12:00 - 15:00 15:00 - 17:00 17:00 - 21:00