Что такое алгоритмы машинного обучения? Вот как они работают
Технология объяснена

Что такое алгоритмы машинного обучения? Вот как они работают

Алгоритмы машинного обучения призваны облегчить жизнь и улучшить системы, но они могут работать неправильно и привести к плохим последствиям

Искусственный интеллект и машинное обучение создают многие из тех достижений, которые мы видим сегодня в технологической отрасли. Но как машинам дается способность к обучению? И как то, как мы это делаем, приводит к непредвиденным последствиям?

Вот наше краткое объяснение того, как работают алгоритмы машинного обучения, а также некоторые примеры неудачного машинного обучения

Что такое алгоритмы машинного обучения?

Машинное обучение – это отрасль компьютерной науки, которая фокусируется на предоставлении ИИ возможности обучаться задачам. Это включает в себя развитие способностей без программистов, явно кодирующих ИИ для выполнения этих задач. Вместо этого ИИ может использовать данные для самообучения

Программисты добиваются этого с помощью алгоритмов машинного обучения. Эти алгоритмы представляют собой модели, на которых основывается поведение ИИ в процессе обучения. Алгоритмы в сочетании с обучающими наборами данных позволяют ИИ обучаться

Алгоритм обычно представляет собой модель, которую ИИ может использовать для решения проблемы. Например, научиться определять, как отличить фотографии кошек от фотографий собак. ИИ применяет модель, заданную алгоритмом, к набору данных, включающему изображения кошек и собак. Со временем ИИ научится определять кошек от собак более точно и легко, без участия человека

Машинное обучение улучшает такие технологии, как поисковые системы, устройства ‘умного дома’, онлайн-сервисы и автономные машины. Именно благодаря ему Netflix знает, какие фильмы вам скорее всего понравятся, а сервисы потокового воспроизведения музыки могут рекомендовать плейлисты

Но хотя машинное обучение может значительно облегчить нашу жизнь, оно может иметь и неожиданные последствия

7 случаев, когда машинное обучение пошло не так

1. Ошибки в результатах поиска изображений Google

Поиск Google значительно упростил навигацию в Интернете. При формировании результатов алгоритм поисковой системы учитывает множество факторов, таких как ключевые слова и показатель отказов. Но алгоритм также учится на трафике пользователей, что может вызвать проблемы с качеством результатов поиска

Нигде это не проявляется так явно, как в результатах по изображениям. Поскольку страницы с высокой посещаемостью имеют больше шансов на отображение изображений, истории, привлекающие большое количество пользователей, включая кликбейт, часто получают приоритет

Например, результаты поиска изображений по запросу ‘лагеря скваттеров в Южной Африке’ вызвали споры, когда выяснилось, что на них изображены преимущественно белые южноафриканцы. И это несмотря на статистику, показывающую, что подавляющее большинство людей, живущих в неформальном жилье, таком как лачуги, – чернокожие южноафриканцы

Факторы, используемые в алгоритме Google, также означают, что пользователи Интернета могут манипулировать результатами. Например, кампания пользователей повлияла на результаты поиска изображений Google до такой степени, что при поиске термина ‘идиот’ появляются изображения президента США Дональда Трампа

2. Бот Microsoft превратился в нациста

Доверьтесь Twitter, чтобы испортить благонамеренного чат-бота с машинным обучением. Именно это произошло в течение одного дня после выпуска печально известного чат-бота Tay от Microsoft

Tay имитировала речевые модели девочки-подростка и училась, общаясь с другими пользователями Twitter. Однако она стала одной из самых печально известных ошибок ИИ, когда начала делиться нацистскими высказываниями и расовыми оскорблениями.  Оказалось, что тролли использовали машинное обучение ИИ против него, наводнив его сообщениями, наполненными фанатизмом

Вскоре после этого Microsoft окончательно отключила Tay от сети

3. Проблемы с распознаванием лиц искусственным интеллектом

ИИ для распознавания лиц часто попадает в заголовки газет по неправильным причинам, например, истории о распознавании лиц и проблемах конфиденциальности. Но этот ИИ также вызвал огромную озабоченность при попытке распознать людей с цветом кожи

В 2015 году пользователи обнаружили, что Google Photos относит некоторых темнокожих людей к гориллам. В 2018 году исследование ACLU показало, что программное обеспечение Amazon Rekognition для идентификации лиц идентифицировало 28 членов Конгресса США как подозреваемых полицией, причем ложные срабатывания непропорционально затрагивали цветных людей

Другой инцидент связан с тем, что программное обеспечение Face ID компании Apple неправильно идентифицировало двух разных китаянок как одного и того же человека. В результате коллега владельца iPhone X смог разблокировать телефон

Тем временем исследовательница из Массачусетского технологического института Джой Буоламвини вспоминает, что во время работы над технологией распознавания лиц ей часто приходилось надевать белую маску, чтобы программа распознала ее. Чтобы решить подобные проблемы, Буоламвини и другие ИТ-специалисты привлекают внимание к этому вопросу и необходимости создания более инклюзивных наборов данных для обучения ИИ

4. Глубокие подделки, используемые для мистификации

Хотя люди уже давно используют Photoshop для создания мистифицированных изображений, машинное обучение выводит это на новый уровень. Такое программное обеспечение, как FaceApp, позволяет менять лица субъектов из одного видео в другое

Но многие люди используют это программное обеспечение для различных вредоносных целей, включая наложение лиц знаменитостей на видео для взрослых или создание мистифицированных видео. Между тем, пользователи Интернета способствовали совершенствованию технологии, благодаря чему становится все труднее отличить настоящие видео от поддельных. В результате это делает данный тип ИИ очень мощным в плане распространения фальшивых новостей и мистификаций

Чтобы продемонстрировать возможности технологии, режиссер Джордан Пил и генеральный директор BuzzFeed Джона Перетти создали видео с глубокой подделкой, в котором, как представляется, бывший президент США Барак Обама выступает с обращением о силе глубоких подделок

5. Восстание ботов в Твиттере

Изначально боты в Twitter были созданы для автоматизации таких вещей, как ответы службы поддержки клиентов для брендов. Но теперь эта технология вызывает серьезные опасения. По оценкам исследователей, до 48 миллионов пользователей Twitter на самом деле являются ботами с искусственным интеллектом

Вместо того чтобы просто использовать алгоритмы для отслеживания определенных хэштегов или ответов на запросы клиентов, многие боты пытаются имитировать реальных людей. Эти ‘люди’ затем продвигают мистификации и способствуют распространению фальшивых новостей

Волна ботов в Твиттере даже в определенной степени повлияла на общественное мнение по поводу Brexit и президентских выборов в США в 2016 году. Сам Twitter признал, что обнаружил около 50 000 ботов российского производства, которые размещали сообщения о выборах

Боты продолжают заражать сервис, распространяя дезинформацию. Проблема настолько распространена, что даже влияет на оценку стоимости компании

6. Сотрудники говорят, что искусственный интеллект Amazon решил, что нанимать мужчин лучше

В октябре 2018 года агентство Reuters сообщило, что компании Amazon пришлось отказаться от инструмента для найма на работу после того, как искусственный интеллект программы решил, что кандидаты-мужчины являются более предпочтительными

Сотрудники, пожелавшие остаться неизвестными, рассказали Reuters о своей работе над проектом.  Разработчики хотели, чтобы ИИ определял лучших кандидатов на работу на основе их резюме. Однако люди, участвовавшие в проекте, вскоре заметили, что ИИ наказывает кандидатов-женщин. Они объяснили, что в качестве обучающего набора данных ИИ использовал резюме за последнее десятилетие, большинство из которых принадлежали мужчинам

В результате ИИ начал отфильтровывать резюме, основанные на ключевом слове ‘женщины’. Это ключевое слово появлялось в резюме под такими видами деятельности, как ‘капитан женского шахматного клуба’. Хотя разработчики изменили ИИ, чтобы предотвратить такое наказание женских резюме, Amazon в конечном итоге свернул проект

7. Неприемлемый контент на YouTube Kids

На YouTube Kids есть много глупых, причудливых видео, предназначенных для развлечения детей. Но у нее также есть проблема спамерских видео, которые манипулируют алгоритмом платформы

Эти видео основаны на популярных тегах. Поскольку маленькие дети не очень разборчивые зрители, нездоровые видео, использующие эти ключевые слова, привлекают миллионы просмотров. ИИ автоматически генерирует некоторые из этих видео, используя элементы стоковой анимации, основанные на трендовых тегах. Даже если ролики сделаны аниматорами, их названия специально генерируются для набивки ключевых слов

Эти ключевые слова помогают манипулировать алгоритмом YouTube таким образом, чтобы они попадали в рекомендации. В лентах детей, пользующихся приложением YouTube Kids, появилось значительное количество неприемлемого контента. Среди них были материалы с изображением насилия, прыжков и сексуального содержания

Почему машинное обучение идет не так

Есть две основные причины, по которым машинное обучение приводит к непредвиденным последствиям: данные и люди. Что касается данных, то здесь применима мантра ‘мусор на входе, мусор на выходе’. Если данные, которые поступают в ИИ, ограничены, необъективны или некачественны, то в результате получается ИИ с ограниченным охватом или необъективный

Но даже если программисты правильно подбирают данные, люди могут внести разлад в работу. Создатели программного обеспечения часто не понимают, как люди могут использовать технологию злонамеренно или в корыстных целях. Глубокие подделки появились благодаря технологии, используемой для улучшения спецэффектов в кино

То, что направлено на обеспечение более захватывающих развлечений, также в конечном итоге разрушает жизнь людей, когда используется в своих целях

Есть люди, которые работают над улучшением защиты технологии машинного обучения, чтобы предотвратить ее злонамеренное использование. Но технология уже здесь. Между тем, многие компании не проявляют необходимой силы воли, чтобы предотвратить злоупотребление этими разработками

Алгоритмы машинного обучения могут нам помочь

Когда понимаешь, насколько сильно машинное обучение и искусственный интеллект не оправдывают ожиданий, это может показаться мрачным и унылым. Но оно также помогает нам во многих отношениях – не только с точки зрения удобства, но и улучшения нашей жизни в целом

Если вы немного сомневаетесь в положительном влиянии ИИ и машинного обучения, узнайте о том, как искусственный интеллект борется с киберпреступностью и хакерами, чтобы вернуть некоторую надежду

Об авторе

Алексей Белоусов

Привет, меня зовут Филипп. Я фрилансер энтузиаст . В свободное время занимаюсь переводом статей и пишу о потребительских технологиях для широкого круга изданий , не переставая питать большую страсть ко всему мобильному =)

Комментировать

Оставить комментарий