Каких опасностей нужно ожидать от искусственного интеллекта в 2019 году

Раньше было модно беспокоиться насчёт сверхумных машин, берущих под контроль мир. Но 2018 год показал, что ИИ может принести много вреда задолго до того, как это случится. Самые современные алгоритмы здорово преуспевают в восприятии — классифицировании изображений и обработке речи — однако восхищение прогрессом скрывает, как далеко мы находимся от создания инструментов, не уступающих человеку по развитию.

Более того, 2018 год показал, что сбои дают даже самые продвинутые ИИ-системы, а их бездумное применение может иметь пугающие последствия.

Аварии с беспилотными автомобилями

В ходе расследования смертельной аварии с беспилотником Uber специалисты выяснили, что ошибки в программе автомобиля можно было избежать. Вывести на рынок свои разработки спешат и традиционные автопроизводители, и масса различных стартапов.

Автопарк Waymo

Наибольшего успеха добилась Waymo, дочерняя компания Alphabet, запустившая сервис беспилотного такси в прошлом году. Тем не менее даже её машины способны ездить далеко не везде и не в любую погоду.

Чего ожидать в 2019 году: регуляторы в США и других странах заняли пассивную позицию из страха встать на пути инноваций, намекая, впрочем, что существующие правила безопасности могут быть ослаблены. Но пешеходы и водители не подписывались на эксперименты, поэтому ещё одна серьёзная авария в 2019 году может изменить отношение властей.

Политические манипуляции

В марте прошлого года активно обсуждалось влияние Facebook на американские выборы. Дискуссия показала, как можно манипулировать алгоритмами, отбирающими новости для социальных медиа.

Во время слушаний в Сенате глава Facebook Марк Цукерберг заявил, что ИИ можно обучить блокированию вредного контента, хотя сейчас такие системы далеки от полноценного понимания значения текста, изображения или видео.

Чего ожидать в 2019 году: заявления Цукерберга пройдут проверку во время выборов в двух крупнейших африканских странах: ЮАР и Нигерии. Подготовка к президентским выборам в США, которые пройдут в 2020 году, также может вызвать появление новых средств дезинформации, работающих на ИИ, включая вредоносных чат-ботов.

Мирные алгоритмы

В прошлом году оформилось движение за мирный ИИ — когда сотрудники Google узнали, что руководство фирмы поставляет технологии для анализа записей с дронов Военно-воздушным силам США. Работники опасались, что это сотрудничество может стать роковым шагом к автономным смертоносным ударам беспилотников. В ответ на протесты Google свернула проект и создала для ИИ этический код.

Учёные и крупные фирмы поддержали кампанию по запрету автономного оружия. Тем не менее военное использование ИИ только набирает силу, а компании вроде Amazon и Microsoft не против в этом помочь.

Чего ожидать в 2019 году: несмотря на увеличение расходов на ИИ Пентагоном, активисты надеются на превентивный запрет автономного вооружения со стороны ООН.

Наблюдение

Способность ИИ распознавать лица привела к тому, что многие страны развёртывают системы наблюдения. Кроме того, распознавание лица позволяет разблокировать телефон и автоматически отмечать пользователя на фотографиях в соцсетях.

Подобные технологии — мощный способ вторгнуться в личное пространство людей, а необъективность обучающих данных, вероятно, поставит дискриминацию на поток. В некоторых государствах, особенно в Китае, распознавание лиц активно используется полицией. Amazon продаёт технологии Иммиграционной службе США и другим правоохранительным структурам.

Чего ожидать в 2019 году: распознавание лиц появится в автомобилях и веб-камерах и будет использоваться как для определения эмоций, так и для определения личности. И всё же в этом году, возможно, власти возьмутся за предварительное регулирование.

Поддельные видео

Быстрое распространение deepfake-видео в прошлом году показало, с какой лёгкостью ИИ производит поддельные ролики: порно, мэшапы и даже клеветнические кампании. В дополнение к этому, компания Nvidia, производящая графические процессоры, продемонстрировала возможности генеративно-состязательных сетей, которые могут создать фотореалистичные лица с заданными параметрами.

Чего ожидать в 2019 году: по мере развития deepfake-технологий люди, вероятно, начнут попадать в ловушку. DAPRA протестирует новые методы обнаружения поддельных видео. Но поскольку такие разработки тоже полагаются на ИИ, это будет игра в кошки-мышки.

Алгоритмическая дискриминация

В прошлом году необъективность отыскали во множестве коммерческих инструментов. Согласно исследованию, проведённому в MIT Media Lab, алгоритмы компьютерного зрения, обученные на ассиметричных данных, распознают женщин и людей с тёмным цветом кожи хуже, чем белых мужчин.

С проблемой необъективности связано и слабое разнообразие в изучении ИИ: женщины занимают в лучшем случае 30% рабочих мест и менее 25% преподавательских должностей в ведущих университетах.

Чего ожидать в 2019 году: появление алгоритмов обнаружения и преодоления необъективности, вывода точных данных из данных необъективных. Одна из главных международных конференций по машинному обучению пройдёт в 2020 году в Эфиопии, так как африканские учёные, изучающие предрассудки в данных, могут столкнуться с проблемами при получении виз.

© VC.ru / Оригинал MIT Technology Review