Прекратите ругаться: Как злоупотребление искусственным интеллектом может стоить вам работы
Технологии с объяснениями

Прекратите ругаться: Как злоупотребление искусственным интеллектом может стоить вам работы

Вы когда-нибудь ругались на своего виртуального помощника? Куда деваются эти ругательства? Они не исчезают просто так, это точно. Но может ли ругань в адрес чат-бота стоить вам работы?

Вы когда-нибудь ругались на Siri, Alexa или Google за то, что они не понимают ваших слов? Вы не одиноки. Возможно, мы и сами виноваты в том, что бросили пару оскорблений

Но мы все должны быть осторожны

Хотя на другом конце вашего оскорбления нет реального человека, эти бранные слова тоже не исчезают в пустоте. Наши бездумные колкости передаются по сети на удаленные серверы. То, как мы обращаемся с цифровыми персональными помощниками, может научить их худшим чертам человечества, а также может заставить некоторые компании считать некоторых из нас слишком сумасшедшими, чтобы принимать на работу

Как выясняется, то, что мы можем считать безобидным балаганом, на самом деле не так уж безобидно

Они учатся у нас

Siri появилась на сцене в 2011 году, а через год за ней последовал Google Now. К 2014 году у Microsoft появилась Cortana. В том же году компания Amazon поместила искусственный интеллект под названием Alexa в пластиковую трубку, которую люди могли оставлять на столешнице. С тех пор Google и Apple сделали то же самое. Технологические гиганты быстро ищут способы превратить искусственный интеллект в готовые к употреблению продукты

Эти цифровые персональные помощники могут казаться зрелыми. Возможно, в них даже есть моменты, которые нас восхищают. Но они подростки. Это высокограмотные малыши, и они активно учатся на информации, которую мы им предоставляем. Как и компании, которые их производят

Команда, стоящая за Siri, работает над Viv (сейчас принадлежит Samsung), цифровым помощником, который интегрируется со сторонними сервисами, такими как Weather Underground и Uber, чтобы предоставлять говорящим более подробные ответы. Демонстрации на сцене показывают, как Вив отвечает на вопросы, которые мы задаем другим людям, а не на язык, который мы разрабатываем для понимания машинами. Это результат изучения того, как люди используют язык

Цифровые персональные помощники – это не то, что большинство из нас представляет себе, когда мы говорим об искусственном интеллекте. В отличие от ELIZA, компьютерной программы 1960-х годов, которая имитирует естественный язык (вы можете попробовать поговорить с ней в Интернете), эти ИИ не делают много ‘мыслей’ для себя. Вся эта работа перекладывается на Интернет

В этом процессе есть несколько этапов

Первый компонент – распознавание речи. Устройство либо загружает прямую запись, либо переводит ваши слова в текст, который он может отправить на удаленные серверы (Apple, Google, Amazon, кто угодно). Именно там и происходит волшебство. Вернее, программное обеспечение ищет в базе данных подходящий ответ. Затем оно передает эту информацию обратно персональному помощнику

Короче говоря: кто-то задает вам вопрос, вы спрашиваете Siri, а Siri спрашивает серверы Apple. Серверы дают Siri ответ, она отвечает вам, и вы либо счастливы, либо решаете, как справиться со своим разочарованием

Эти базы данных содержат не только ответы. Некоторые хранят записи голоса, которые помогают компьютеру ориентироваться в многочисленных нюансах наших различных диалектов. Эта информация нужна не только для того, чтобы помочь ботам понять нас.Facebook использовал тысячи переговоров на естественном языке между двумя людьми, чтобы научить чат-ботов Messenger вести переговоры

Подаем ли мы хороший пример?

Это едва ли не единственные ИИ, которые учатся на том, как мы говорим

В прошлом году компания Microsoft выпустила чат-бота в Twitter, Kik и GroupMe с целью имитации американской девочки-подростка. В течение нескольких часов ‘Тэй’ соглашалась с Гитлером и высказывала всевозможные оскорбительные высказывания.Microsoft удалила ‘Тэй’ из сети до конца дня

Хотя ‘Tay’ потерпел неудачу, это не замедлило сказаться на распространении чат-ботов. Вы можете найти их в таких социальных сетях, как Facebook и Snapchat, а также в таких клиентах обмена сообщениями, как HipChat и Slack. Некоторые из них служат для общения. Другие подключают вас к сервисам. Некоторые из этих ботов более безопасны, потому что они не пытаются имитировать естественный разговор, поскольку в настоящее время не всегда хорошо, когда машины имитируют то, как мы разговариваем

https://www.youtube.com/watch?v=eTdyucscPnQ

Мы подаем ботам не самый лучший пример для подражания. Профессор колледжа Университета штата Миссури Шерил Брэнэм провела исследование, в результате которого выяснилось, что от 10 до 50 процентов изученных взаимодействий показывают, что люди оскорбляют или грубят компьютерным помощникам (среди которых цифровые персональные помощники являются лишь одним из видов). Это тревожно большое число. Некоторые родители чувствуют себя виноватыми за то, что произнесли одно плохое слово в присутствии своих детей. Это далеко не значит, что половина их общения носит негативный характер

Те чат-боты Facebook Messenger, о которых я упоминал ранее? Они не только научились вести переговоры, изучая естественный язык, но и научились лгать

Ваш будущий работодатель может наблюдать за ними

В будущем может наступить момент, когда общение с ботами может стоить нам работы. По данным Harvard Business Review, этот сдвиг может произойти, когда мы перестанем воспринимать бота, с которым плохо обращаются, как сломанный мобильный телефон, и станем больше похожи на котенка, которого пнули. Неуважительное отношение к боту компании может привести к увольнению

Кредит изображения: Концепция чатбота на Shutterstock.

Это не означает, что сотрудники или работодатели начнут воспринимать ботов как очаровательных живых существ. Однако они могут стать достаточно разумными, чтобы плохое обращение с ними выглядело непрофессиональным и контрпродуктивным. Если вы руководитель, то злоупотребление ИИ может привести к тому, что вас вызовут в отдел кадров за плохое руководство

Это звучит слишком гипотетично? Подумайте о том, что уже происходит. Все, что мы набираем или говорим этим помощникам, отправляется через Интернет, и мы не знаем, что происходит с этим потом. Большая часть этой информации регистрируется. Даже если эта информация не всегда привязана к вашему аккаунту, она все равно сохраняется

Google технически прозрачен в этом вопросе, но это не делает его очевидным. Такой сбор данных не соответствует определению согласия человека перед тем, как записывать его данные

Сейчас эти собранные данные могут показаться безобидными, но ничто не помешает технологическим гигантам со временем составить подробное портфолио каждого из нас, которое будущие работодатели, банки и другие организации смогут проверять, прежде чем вступать с нами в отношения, подобно кредитной истории

Правоохранительные органы тоже следят за этим

В деле арканзасца, обвиняемого в убийстве своего друга (бывшего офицера полиции), прокурор попросил использовать записи с Amazon Echo в качестве доказательства. Компания Amazon отклонила запрос, но это лишь отчасти успокаивает. Настораживает то, что Amazon вообще хранит данные. С тех пор подозреваемый предоставил доступ к этим данным

Я уже упоминал, что компании могут проверять наши данные, прежде чем взаимодействовать с нами. В случае с правоохранительными органами, они уже следят за этой информацией. Действительно ли АНБ необходимо собирать данные самостоятельно, если оно может положиться на частный сектор, который соберет эту информацию для них? Должны ли мы доверять кому-либо такое количество данных о каждом из нас?

В эти данные включено не только то, что мы искали, или команды, которые мы отдавали, но и то, как мы это делали.(Мы не просто передаем информацию о своих интересах и действиях – мы даем другим возможность взглянуть на то, как мы действуем). То, что происходит между вами и Alexa, не остается между вами и Alexa

То, что мы говорим, имеет значение

В то время как Tay был вынужден уйти в тайм-аут, Microsoft добилась ошеломляющего успеха с другим ботом. Его имя – Xiaoice. В Китае и Японии этот бот общался с более чем 40 миллионами человек. То, что Xiaoice не самоуничтожился, отчасти объясняется разницей в культуре. В Китае некоторые типы речи запрещены в Интернете

Теперь боты начали сами наводить порядок. Социальные сети начинают использовать ботов для пресечения языка ненависти. Возможно, мы не говорим напрямую с этими ботами, но они все равно изучают нашу речь, чтобы понять, что квалифицируется как оскорбление

Как бы вы ни подходили к этому вопросу, то, что мы говорим и как мы это говорим, имеет значение. Боты и компании, которые их создают, прислушиваются. Когда-нибудь к ним могут присоединиться и наши работодатели. И если компьютеры заменят нас в будущем, разве мы не хотим, чтобы они были хорошими?

Как вы реагируете, когда цифровые персональные помощники выходят из строя? Относитесь ли вы к ним так, как будто у них есть чувства? Волнует ли вас, что кто-то следит за тем, что вы говорите? Что вы видите в качестве ответственного пути вперед? Человек будет следить за вашими комментариями ниже

Image Credit: deagreez1/Depositphotos

Об авторе

Алексей Белоусов

Привет, меня зовут Филипп. Я фрилансер энтузиаст . В свободное время занимаюсь переводом статей и пишу о потребительских технологиях для широкого круга изданий , не переставая питать большую страсть ко всему мобильному =)

Комментировать

Оставить комментарий

ВАМ БУДЕТ ИНТЕРЕСНО