У дома Характеристика Как мозайката на Google се опитва да детоксикира интернет

Как мозайката на Google се опитва да детоксикира интернет

Съдържание:

Видео: ДвернаÑ? охота (Выломаные двери) (Септември 2024)

Видео: ДвернаÑ? охота (Выломаные двери) (Септември 2024)
Anonim

Интернет може да се почувства като токсично място. Троловете се спускат по секции за коментари и нишки в социалните медии, за да нахвърлят речта на ненавистта и тормоза, превръщайки потенциално просветляващите дискусии в атаки ad hominem и групови натрупвания. Изразяването на мнение онлайн често не изглежда струва на получената витриола.

Масовите социални платформи - включително Facebook, Twitter и YouTube - признават, че не могат адекватно да политират тези проблеми. Те са в надпревара с оръжия с ботове, тролове и всякакви други нежелателни, които се плъзгат през филтри за съдържание. Хората не са физически способни да прочетат всеки коментар в мрежата; тези, които се опитват, често съжаляват за това.

Техническите гиганти експериментират с различни комбинации от умереност на човека, алгоритми на AI и филтри, за да проникнат през потопа от съдържание, преминаващо през емисиите им всеки ден. Jigsaw се опитва да намери средно място. Филиалът на Alphabet и технологичният инкубатор, известен преди като Google Ideas, започва да доказва, че машинното обучение (ML), създадено в инструменти за човешки модератори, може да промени начина, по който подхождаме към проблема с токсичност в интернет.

Perspective е API, разработен от Jigsaw и екипа на Google за борба с насилието. Той използва ML, за да забележи злоупотреба и тормоз онлайн и оценява коментари въз основа на възприетото въздействие, което биха могли да окажат върху разговора, за да улеснят живота на човешките модератори.

Перспектива сред викащите мачове

Технологията с отворен код е обявена за първи път през 2017 г., въпреки че разработката за нея стартира няколко години по-рано. Едни от първите сайтове, които експериментират с Perspective, са новинарски издания като The New York Times и сайтове като Wikipedia. Но наскоро Perspective намери дом в сайтове като Reddit и платформа за коментари Disqus (която се използва на PCMag.com.)

CJ Adams, продуктов мениджър за Perspective, каза, че проектът иска да проучи как гласовете на хората замълчават онлайн. Jigsaw искаше да проучи как целенасочената злоупотреба или общата атмосфера на тормоз може да създаде смразяващ ефект, който да обезкуражи хората до степен, в която смятат, че не си струва нито време, нито енергия да добавят своя глас към дискусия. Колко често сте виждали туитър, публикация или коментар и сте избрали да не отговаряте, защото борбата с троловете и получаването на Mad Online просто не си струва да се утежнявате?

"Много лесно е да съсипеш онлайн разговор", каза Адамс. „Лесно е да скочиш, но един човек, който е наистина зъл или токсичен, може да изгони други гласове. Може би 100 души прочетат статия или започнат дебат, а често се оказваш, че най-силните гласове в стаята са единствените останали, в интернет, който е оптимизиран за харесвания и споделяния. Така че вие ​​мълчате всички тези гласове. Тогава това, което определя дебата, е само най-силният глас в стаята - викащото съвпадение."

    Мозайката и Google

    Беше груба година за сестринската компания на Jigsaw, Google, която се сблъска с проблемите със сигурността на данните, отблъскването на служителите за участието си в проекти за Пентагона и Китай и разкрития за справянето със сексуалния тормоз. Да не говорим за спорното изслушване в Конгреса, в което главният изпълнителен директор Сундар Пичай беше на грил от депутати.

    В Jigsaw, алтруистичния инкубатор на Alphabet, нещата бяха малко по-малко драматични. Екипът е прекарал времето си в изследване на повече технически форми на цензура, като отравяне с DNS с приложението си Intra и DDoS атаки с Project Shield. С перспектива целта е по-абстрактна. Вместо да използва машинно обучение за определяне на това, което е или не е против даден набор от правила, предизвикателството на Perspective е интензивно субективно: класифициране на емоционалното въздействие на езика.

    За целта се нуждаете от обработка на естествен език (NLP), която разгражда изречение, за да забележи модели. Екипът на „Перспектива“ се сблъсква с проблеми като пристрастия за потвърждение, групово мислене и тормоз на поведение в среда, в която технологиите разширяват обхвата си и ги правят по-трудни за решаване.

    AI е „Грешно и тъпо понякога“

    Подобряването на онлайн разговори с машинно обучение не е лесна задача. Това все още е нова област на изследване. Алгоритмите могат да бъдат предубедени, системите за машинно обучение изискват безкрайно усъвършенстване, а най-трудните и най-важните проблеми все още са до голяма степен неизследвани.

    Изследователската група Conversation AI, която създаде „Перспектива“, започна със срещи с вестници, издатели и други сайтове, хостващи разговори. Някои от първите сайтове, които експериментираха с технологията, бяха The New York Times , Wikipedia, The Guardian и The Economist .

    През 2017 г. екипът отвори първоначалната демонстрация на Perspective чрез публичен уебсайт като част от алфа тест, оставяйки хората да въвеждат милиони мерзости, злоупотребяващи коментари в сайта. Приличаше на скандално провалилия се експеримент с чатбот Tay на Microsoft, с изключение на това, че вместо да заблуди бота да отговаря с расистки туитове, Jigsaw използваше многолюдната вирулентност като обучение на данни за захранване на своите модели, помагайки да се идентифицират и категоризират различни видове злоупотреби в интернет.

    Първоначалният публичен тест не мина гладко. „Троловете в цяла Америка“ на Wired, който разби токсичността в коментарите в цялата страна въз основа на оценката на перспективата, показа как алгоритъмът по невнимание разграничава групи по раса, пол и идентичност.

    Адамс беше откровен за факта, че първоначалното тестване на Perspective разкри големи слепи петна и алгоритмични пристрастия. Подобно на бракувания инструмент за набиране на Amazon, който обучаваше на десетилетия дефектни данни за работа и разработваше присъща пристрастност спрямо кандидатки за жени, ранните перспективни модели имаха явни недостатъци поради данните, по които е обучен.

    „В примера на често насочвани групи, ако разгледате разпределението между коментарите в набора от данни за обучението, имаше изчезващо малък брой коментари, които включваха думата„ гей “или„ феминистка “и я използват положително начин “, обясни Адамс. "Коварните коментари използват думите като обиди. Така че ML, разглеждайки моделите, би казал:" Ей, присъствието на тази дума е доста добър предсказател за това дали този сантимент е токсичен или не."

    Например алфа алгоритъмът може погрешно да е обозначил изявления като „Аз съм горд гей човек“ или „Аз съм феминистка и трансджендър“ с висока оценка на токсичността. Но публично прозрачният тренировъчен процес - макар и болезнен - ​​беше безценен урок за Jigsaw в последиците от непреднамерените предубеждения, каза Адамс.

    Когато тренираме модели за машинно обучение на нещо толкова притеснително и лично, като онлайн злоупотреба и тормоз, наличието на алгоритмични пристрастия също подчертава защо AI сам по себе си не е решението. Социални компании като Facebook и YouTube рекламираха функциите на AI за модериране на съдържанието на своите платформи само за да отстъпят на фона на скандали и коригиране на курса, като наемат хиляди човешки модератори.

    Принадлежността на Jigsaw е хибрид от двете. Перспективата не е AI алгоритми за вземане на решения във вакуум; API е интегриран в интерфейси за управление на общността и модериране на съдържание, за да служи като помощно средство за човешки модератори. Перспективните инженери описват модерирането на речта на омразата с и без МЛ, използвайки аналогия на сено: AI помага, като автоматизира процеса на сортиране, сваляйки огромни стопове сено, докато все още дава на хората последната дума за това дали коментарът се счита за злоупотреба или тормоз.

    "Това е тази нова способност на ML", каза Адамс. „Хората говорят за това колко е интелигентен ИИ, но често не говорят за всички начини, по които е грешно и тъпо понякога. Още в началото знаехме, че това ще направи много грешки и затова казахме:„ Това инструментът е полезен за машинно подпомагане на умереността на човека, но не е готов за вземане на автоматични решения. " Но може да отнеме проблема с „иглата в сено“, за да намери тази токсична реч и да я сведе до шепа сено. “

    Какво е оценка за токсичност?

    Най-разделителният аспект на моделирането на Перспектива е поставянето на числа в променлива, толкова субективна, колкото "токсичност". Първото нещо, което Адамс посочи, е, че оценките на Perspective са индикация за вероятност, а не за тежест. По-високите числа представляват по-голяма вероятност моделите в текста да приличат на модели в коментарите, които хората са маркирали като токсични.

    Що се отнася до това какво всъщност означава „токсичен“, екипът на „Перспектива“ го определя като „груб, неуважителен или необоснован коментар, който вероятно ще ви накара да оставите дискусия“. Но как това може да се прояви е едва доловимо. През 2018 г. Jigsaw си партнира с лабораторията за изкуствен интелект на Родос (RAIL), за да разработи ML модели, които могат да наберат по-двусмислени форми на заплашителна или омразна реч, като отхвърлящ, снизходителен или саркастичен коментар, който не е открито враждебен.

    До този момент повечето от моделите на Perspective са обучени, като са помолили хората да оценят интернет коментарите по скалата от "много токсичен" до "много здрав". След това разработчиците могат да калибрират модела, за да маркират коментари над определен праг, от 0, 0 до 1, 0. Резултат над 0, 9 показва висока вероятност за токсичност, а резултат от 0, 5 или по-долу означава далеч по-ниска степен на алгоритмична сигурност. Перспективата използва също така нареченото нормализиране на резултата, което дава на разработчиците постоянна базова линия, от която да интерпретират резултати. Адамс обясни, че в зависимост от форума или уебсайта, разработчиците могат да смесват и съвпадат модели. Така че, когато общността няма нищо против нецензурността, този атрибут може да бъде претеглен.

    Адамс ми показа демодетерски интерфейс, интегриран с API на перспективата. В административния панел, до опциите за сортиране на коментари отгоре, най-новите и т.н., е малка икона на флаг, която да се сортира по токсичност. Също така има вграден механизъм за обратна връзка, за да може човешкият модератор да каже на Perspective, че той е дал коментар неправилно и да подобри модела във времето.

    Той кликнал през демонстрационен интерфейс за модериране на коментари на страница в Wikipedia Talk, отбелязани от различни модели на Перспектива, и графиката на хистограма, разбиваща кои коментари е вероятно да бъде атака на автор на страница или атака срещу друг коментатор.

    „Искаме да изградим машинно подпомогнати средства за модериране, за да маркираме нещата, които човек може да преразгледа, но не искаме някаква централна дефиниция или някой да каже какво е добро и лошо“, каза Адамс. „Така че, ако сортирам по токсичност, виждате, че сред коментарите стигат до върха. Но ако ви интересува повече, да речем, атаки за идентичност или заплахи, отколкото показатели като псувни, може би няма да използвате общ модел на токсичност. Това са съставки, които можете да смесите. Ние ги предлагаме и разработчиците ги претеглят."

    Експериментът RAIL използва по-подробен подход. Студентите в град Оксфорд изграждат набор от данни от десетки хиляди коментари от канадския вестник „ Глобус и поща “ с коментари и от Уикипедия. Молят човешки „анотатори“ да отговарят на въпроси за всеки коментар, свързан с пет под-атрибута на „нездравословно съдържание“: враждебно или обидно (тролове), отхвърлящо, снизходително или покровителствено, саркастично и несправедливо обобщаване.

    Изпълнението на тези по-фини атрибути разкри нови сложни проблеми с неволно пристрастие към конкретни групи и неверни позитиви със саркастични коментари. Това е част от нарастващите болки в ИИ, подхранвайки модели все повече и повече данни, за да помогне да разбере подразбиращи се, косвени значения зад човешката реч. Екипът все още се опитва да анотира хиляди коментари и планира да пусне окончателния набор от данни в началото на тази година.

    „Това, което искаме да работим, е нещо, при което общността може да оцени набор от коментари, а след това можем да ги направим по поръчка на микс от перспективни модели, които да съвпадат“, каза Адамс.

    Любопитен тест на Reddit

    Reddit е микрокосмос на всичко, което е добро и ужасно в интернет. Има subreddit общност за всяка тема и ниша, причудлив интерес, за който можете да се сетите. Jigsaw не работи с Reddit на корпоративно ниво, но едно от най-интригуващите места, в които се тества AI модерацията на Perspective, е на subreddit, наречен r / changemyview.

    Изненадващо, има ъгли в интернет, където все още се случват истински дебати и дискусии. Промяна на моя изглед или CMV не е като повечето други подредове. Идеята е да публикувате мнение, което приемате, може да бъде погрешно или да сте отворени за промяна, след това да слушате и разбирате други гледни точки, за да видите дали те могат да променят мнението ви по даден проблем. Нишките варират от светски теми като правилния ред за гледане на филмите на Междузвездни войни до сериозни дискусии по въпроси, включително расизъм, политика, контрол на оръжията и религия.

    Промяна на моя изглед е интересен тест за перспектива, защото subreddit има собствен подробен набор от правила за започване и модериране на разговори, които подбуждат спорове и разгорещен дебат по дизайн. Кал Търнбул, който минава през u / Snorrrlax на Reddit, е основателят и един от модераторите на r / changemyview. Търнбул каза на PCMag, че API на перспективата се подрежда особено добре с Правилото 2 на под, което основно забранява грубата или враждебна реч.

    "Звучи като обикновено правило, но има много нюанс в него", каза Търнбул, който е базиран в Шотландия. „Трудно е да се автоматизира това правило, без да се разбира умно в езика. Reddit ви дава това нещо, наречено AutoModerator, където можете да настроите филтри и ключови думи за маркиране. Но има толкова много лъжливи позитиви и може да бъде доста трудно да се хване, защото някой може да каже лоша дума, без да обижда някого, а също така може да обиди някого, без да използва лоши думи."

    Jigsaw достигна до Turnbull през март 2018 г. Сътрудничеството започна с правило 2, но скоро екипът изграждаше перспективни модели и за други правила. Това не е пълна интеграция на API с перспективен отворен код, а по-скоро Reddit бот, който позволява на модераторите да отбележат коментари, отбелязани над даден праг на токсичност.

    През последните шест години Turnbull и другите модове правят всичко това ръчно от опашката на отчетите на AutoModerator (маркирани ключови думи) и потребителски отчети. Jigsaw използва години бележки за нарушаване на правила от модераторите, които те проследяват чрез разширение на браузъра, и изгражда перспективни модели въз основа на тези данни, комбинирани с някои от съществуващите модели на токсичност на Perspective. През цялата 2018 г. CMV модовете даваха обратна връзка по въпроси като излишни фалшиви позитиви, а Jigsaw ощипва праговете за оценка, като продължава да моделира повече от правилата на CMV.

    Сложни решения в онлайн дебат

    (Перспективният бот, интегриран в модераторния интерфейс Reddit.)

    Перспективата не е активна за цялата модерация на правилата на subreddit. Някои от по-сложните или абстрактни правила все още са извън обхвата на това, което този вид ML може да разбере.

    Правило 4 например управлява системата на точките на Delta на точките, докато правило B спира потребителите да играят застъпник на дявола или да използват пост за „сапуниране“. Нуансираната умереност като тази изисква контекстуални данни и ясно човешко разбиране, за да се разбере дали някой спори по точка поради истински причини или просто тролинг.

    В обозримо бъдеще все още ще ни трябват човешки модове. Тези по-сложни сценарии за преценка са, когато модераторите на CMV започват да виждат пукнатини в AI моделирането и по-умна автоматизация може да определи дали всичко това е мащабируемо.

    "Мисля, че причината, поради която това е толкова сложно, е, че това е комбинация от нашата преценка за първоначалния им пост и техните взаимодействия по време на целия разговор. Така че не е само един коментар, който задейства модел", каза Търнбул. "Ако аргументът върви напред-назад и в края е коментар, който казва" благодаря "или потвърждение, ние го пускаме, дори ако дадено правило е нарушено по-рано в темата. Или лекомислена шега, която в контекста може да изглежда грубо - това е хубаво малко човешко нещо и това ботът все още не е получил."

    Change My View е единственият subreddit, който активно използва моделите на Perspective ML за модериране в момента, въпреки че Адамс каза, че екипът е получил заявки за достъп от няколко други. Специфичният набор от правила CMV го направи идеален тестов случай, но перспективните модели са ковък; отделните подредове могат да персонализират алгоритъма за оценка, за да съответстват на техните насоки на общността.

    Следващата стъпка за Turnbull е свалянето на CMV от Reddit, тъй като общността го превъзхожда, каза той. През последните шест месеца новосформираният стартъп на модераторите работи с Jigsaw на специализиран сайт с по-дълбока функционалност от модния интерфейс на Reddit и ботовете, които могат да предоставят.

    Проектът все още е само в алфа тестване, но Turnbull говори за функции като проактивни сигнали, когато потребителят пише коментар, който може да наруши правило, вградено отчитане, за да даде на модераторите повече контекст и исторически данни за вземане на решения. Търнбюл подчерта, че няма планове за изключване или миграция на subreddit, но той е развълнуван от новия експеримент.

  • Всички коментари годни за печат

    В зависимост от деня от седмицата, уебсайтът на New York Times получава от 12 000 до повече от 18 000 коментара. До средата на 2017 г. секциите за коментари на вестника се модерираха от служители на ръководството на общността, които прочетоха всеки коментар и решиха дали да го одобрят или отхвърлят.

    Баси Етим, който до този месец беше редактор на общността за „ Таймс“ , прекара десетилетие в бюрото на Общността и беше негов редактор от 2014 г. В разгара на делничния ден екипът може да има няколко души, модериращи коментари за историите на общественото мнение, докато други справяне с новините. Електронна таблица се раздели и проследяваше различни отговорности, но екипът от приблизително дузина души непрекъснато се преназначаваше или се движеше наоколо в зависимост от основните новини за момента. Освен това те подхранваха лакомства от коментарите обратно към репортерите за евентуална история на фуража.

    В крайна сметка стана ясно, че това е повече от 12 човека, които могат да се справят. Разделите за коментари върху истории трябва да приключат, след като достигнат максимален брой коментари, които екипът може да модерира.

    Групата за развитие на публиката на вестника вече експериментира с машинно обучение за основни, очевидни одобрения на коментари, но Етим каза, че не е особено умен или персонализиран. Таймс за първи път обяви партньорството си с Jigsaw през септември 2016 г. Оттогава секциите за коментарите му се разшириха от появата на по-малко от 10 процента от всички истории до около 30 процента днес и изкачването.

    От гледна точка на Jigsaw, инкубаторът видя възможността да подава анонимни данни на Perspective от милиони коментари на ден, модерирани от професионалисти, които биха могли да помогнат за усъвършенстване на процеса. В замяна на анонимните данни за обучение на ML, Jigsaw и Times работиха заедно, за да създадат платформа, наречена Moderator, която се разгърна през юни 2017 г.

  • Вътрешен модератор, NYT коментарен интерфейс

    (Изображение предоставено от The New York Times )

    Модераторът комбинира моделите на Perspective с повече от 16 милиона анонимни, модерирани коментари на Times от 2007 г.

    Това, което екипът на общността всъщност вижда в интерфейса на модератора, е табло с интерактивна хистограма, която визуализира разбиването на коментарите над определен праг. Те могат да плъзгат плъзгача напред и назад, например, за да одобрят автоматично всички коментари само с обобщен резултат от 0 до 20 процента, който се основава на комбинация от потенциал на коментара за неприличие, токсичност и вероятност да бъдат отхвърлени. По-долу има бутони за бързо модериране, за да одобрите или отхвърлите коментар, да го отложите или маркирате коментара, за да продължите да подобрявате моделирането на Perspective.

    „За всеки раздел на уебсайта анализирахме входящите коментари и начина, по който Перспектива ще ги маркира. Използвахме както публичните модели на Перспектива, така и собствените си модели, уникални за The New York Times “, каза Етим. "Бих анализирал коментари от всеки раздел и се опитвам да намеря границата на прекъсване, където ще ни е удобно да казваме:" Добре, всичко над тази вероятност, използвайки тези специфични етикети за токсичност, като например неприличие, например, ще одобрим."

    Машинното обучение одобрява сравнително малък процент коментари (около 25 процента или повече, каза Етим), тъй като The Times работи, за да разгръща коментари за повече истории и в крайна сметка дори да персонализира как моделите филтрират и одобряват коментари за различни секции на сайта. Моделите одобряват само коментари; отхвърлянето все още се обработва изцяло от човешките модератори.

    Тези ръчни ограничения за коментари няма. Коментарите обикновено се затварят в историята или 24 часа след публикуването им онлайн, или в деня, след като се публикува в печат, каза Етим.

    „Не ви заместваме с машини“

    Следващата фаза е изграждането на повече функции в системата, за да помогнете на модераторите да дават приоритет на кои коментари да гледат първо. Все по-често автоматизирането на това, което винаги е било ръчен процес, дава възможност на модераторите да прекарват времето си активно в работа с репортери, за да отговарят на коментари. Създаден е цикъл за обратна връзка, при който коментарите водят до последващи отчети и допълнителни истории - могат да спестят и преразпределят ресурси, за да създадат повече журналистика.

    „Модераторът и Перспективата направиха„ Таймс “много по-отзивчив към притесненията на читателите, защото ние разполагаме с ресурсите да го направим, независимо дали става дума за писане на истории или за работа с репортери, за да измисляме истории“, каза Етим. "Хубавото на този проект е, че не оставихме никого. Ние не ви заменяме с машини. Просто използваме хората, които имаме по-ефективно, и за да вземем наистина трудни решения."

    Документът е отворен за работа с други публикации, за да помогне на останалата част от индустрията да приложи този вид технологии. Той може да помогне на местните информационни бюра с ограничени ресурси да поддържат секции за коментари без голям специализиран персонал и да използват коментари, както прави The Times , за да намерят потенциални водещи и да подхранват масовата журналистика.

    Етим оприличаваше умереността, подпомагана от ИИ, давайки на фермера механичен плуг срещу лопата. Можете да свършите работата много по-добре с плуг.

    "Ако Перспективата може да се развие по правилния начин, тя може да се надява да създаде поне набор от насоки, които да се повтарят за малки търговски обекти", каза той. "Това е дълга игра, но вече сме създали много от фондацията, за да бъдем част от това читателско изживяване. Тогава може би тези местни вестници могат да имат коментари отново и да установят малко плажа пред основните социални играчи."

    Крещи в бездната

    В този момент повечето от нас са виждали хора, нападнати или тормозени в социалните медии, за да изразят мнение. Никой не иска това да им се случи, освен троловете, които процъфтяват в такива неща. И научихме, че да крещиш на непознат, който никога няма да изслуша рационален спор, не е ценна употреба на нашето време.

    Перспектива се опитва да използва тази динамика, но CJ Адамс каза, че по-широката цел е публикуването на данни, изследвания и нови UX модели с отворен код за създаване на нови структури на разговор - трудна задача. Превръщането на интернет в здравословно място, което си струва времето на хората, означава мащабиране на тези системи извън секциите за коментари на новини и подредакти. В крайна сметка инструментите на AI трябва да могат да се справят с огромните социални приложения и мрежи, които доминират в ежедневните ни цифрови взаимодействия.

    Оставяйки настрана това, което Facebook, Twitter и други социални гиганти правят вътрешно, най-прекият начин да се постигне това е да се прокара технологията от модераторите към самите потребители. Адамс посочи Кораловия проект за идея как може да изглежда.

    Проектът Coral първоначално е основан като сътрудничество между Mozilla Foundation, The New York Times и Washington Post. Coral изгражда инструменти с отворен код като платформата си Talk, за да насърчи онлайн дискусиите и да даде алтернатива на новинарските сайтове за спиране на секциите за коментари. В момента Talk захранва платформи за близо 50 онлайн издатели, включително пощата , списанието в Ню Йорк, The Wall Street Journal и The Intercept.

    По-рано този месец Vox Media придоби Coral Project от Mozilla Foundation; тя планира да го „интегрира“ в Chorus, неговата платформа за управление на съдържанието и разказването на истории.

    „Перспектива“ има приставка за проекта Coral, който използва същата основна технология - оценка на токсичността и прагове на базата на ML - за да даде на потребителите активни предложения, докато те въвеждат, каза Адамс. Така че, когато потребителят пише коментар, съдържащ фрази, маркирани като злоупотреба или тормоз, може да се появи известие за потребителя, казващо: „Преди да публикувате това, не забравяйте да запомните нашите насоки на общността“ или „Езикът в този коментар може да наруши нашите насоки на общността. Нашият екип за модериране ще го прегледа скоро."

    „Това малко натискане може да помогне на хората просто да вземат тази секунда да мислят, но също така не блокира никого“, каза Адамс. "Това не спира дискусията."

    Това е механизъм, който видео чат и стрийминг платформите са интегрирани, за да ограничат злоупотребата и тормоза. Потребителите на Twitter могат също така да се възползват от подобна система.

    Това говори за идея, която изследователят на MIT Андрю Липман представи в PCMag's Future Issue: Той говори за вградени механизми, които ще позволят на хората да спрат и да мислят, преди да споделят нещо онлайн, за да помогнат да се спре разпространението на дезинформация. Концепцията важи и за онлайн дискусия. Създадохме комуникационни системи без триене, способни да разширят обхвата на изявление експоненциално в един миг, но понякога малко триене може да бъде добро, каза Липман.

    Перспективата не се състои в използването на AI като одеяло. Това е начин да формираме ML модели в инструменти за хората, които да им помогнат да излекуват собствените си преживявания. Но един контрапункт е, че ако направите още по-лесно за хората да настройват шум в интернет, който не им харесва, интернет ще стане дори повече от ехокамера, отколкото вече е.

    На въпрос дали инструменти като Перспектива могат в крайна сметка да изострят това, Адамс каза, че вярва, че онлайн ехо камарите съществуват, тъй като няма механизми за провеждане на дискусия, по която хората могат смислено да не се съгласят.

    „Пътят на най-малка съпротива е„ Тези хора се бият. Нека просто ги оставим да се съгласят със себе си в собствените си кътчета. Нека хората силозират себе си “, каза той. "Вие оставяте хората да викат всички останали от стаята или изключвате дискусията. Искаме Перспектива да създаде трета опция."

    Адамс изложи примерен сценарий. Ако попитате стая от 1000 души, "Колко от вас днес прочетоха нещо, за което наистина сте се интересували?" повечето потребители на интернет ще посочат статия, туитър, публикация или нещо, което четат онлайн. Но ако след това ги попитате: „Колко от вас смятат, че си струва да отделите време, за да го коментирате или да обсъдите?“ всички ръце в стаята ще паднат.

    "За толкова много от нас просто не си струва усилията. Структурата на дискусията, която имаме в момента, просто означава, че е отговорност. Ако имате настояща разумна мисъл или нещо, което искате да споделите, за повечето хора те не го правят" не искам да участвам ", каза Адамс. "Това означава, че от тези 1000 души, които биха могли да бъдат в стаята, вие имате само шепа представени в дискусията; да речем, 10 души. Имам дълбока вяра, че можем да изградим структура, която да позволи на останалите 990 да се върнат в дискусията и го прави по начин, който им се струва, че си заслужава времето."

Как мозайката на Google се опитва да детоксикира интернет