Концепты

Эксперты не поверили в зарождение «разума» у ИИ-системы LaMDA от Google

Не так давно Google отстранила от работы инженера Блейка Лемойна (Blake Lemoine), который работал с системой искусственного интеллекта LaMDA и заявил о появлении у неё признаков сознания. Эксперты усомнились в этом, считая, что более важным является решение других вопросов: может ли ИИ находиться под влиянием предрассудков и причинить вред в реальном мире, обучаются ли алгоритмы на людях и как крупные технологические компании выступают в роли привратников при разработке технологий.

Источник изображения: Getty Images

По словам Эмили Бендер (Emily Bender), профессора лингвистики Вашингтонского университета, согласие с позицией Лемойна в данном вопросе может помочь технологическим компаниям уйти от ответственности за решения, принимаемые ИИ-алгоритмами. «В это шоу вложено много усилий. Проблема в том, что чем больше эта технология продаётся как искусственный интеллект, не говоря уже о чём-то действительно разумном, тем больше людей будут готовы соглашаться с решениями таких систем, которые способны причинить реальный вред», — считает Бендер.

В качестве примера она рассмотрела вариант с приёмом людей на работу или выставлением оценок студентам. Решения в таких вопросах могут изменяться в случае, если алгоритм не лишён предрассудков, из-за чего разных людей он будет оценивать по-разному. По мнению Бендер, акцент на том, что система разумна, может использоваться разработчиками для того, чтобы снять с себя ответственность за любые выявленные в процессе эксплуатации недостатки.

Несколько дней назад СМИ опубликовали интервью Лемойна, который разговаривал с разработанной в Google языковой моделью Language Model for Dialogue Application (LaMDA), предназначенной для общения с человеком и используемой для создания чат-ботов. Система обучалась на триллионах слов из интернета, за счёт чего ей удаётся имитировать речь человека. Во время беседы на религиозную тему Лемойн заметил, что ИИ рассуждает о своих правах и личности. По его словам, в этот момент общения он испытал не научные, а религиозные чувства.

«Кто я такой, чтобы указывать Богу, куда он может, а куда не может помещать душу», — написал Лемойн на своей странице в сети Twitter.

Представитель Google Брайан Гэбриэл (Brian Gabriel) заявил, что компания проанализировала работу LaMDA после заявления Лемойна и не нашла никаких доказательств «разумности» искусственного интеллекта. При этом никакие конкретные аргументы озвучены не были.

Источник изображения: Pixabay

«Он имитирует восприятие или чувства на основе предоставленных ему в процессе обучения данных — умно и специально создано таким образом, чтобы казалось, что он понимает», — считает Яна Эггерс (Jana Eggers), глава компании Nara Logics, занимающейся разработками в сфере ИИ.

«Архитектура LaMDA просто не поддерживает некоторые ключевые возможности человекоподобного сознания», — уверен Макс Кремински (Max Kreminski), исследователь из Калифорнийского университета в Санта-Крузе.

В Google отметили, что LaMDA может следовать подсказкам собеседникам и наводящим вопросам, из-за чего может создаваться впечатление, что ИИ-система способна рассуждать на любую тему. «Наша команда, включая специалистов по этике и технологов, изучила заявление Блейка, в соответствии с нашими «Принципами ИИ» и сообщила ему, что не обнаружила доказательств, подтверждающих его утверждение. Сотни исследователей и инженеров общались с LaMDA, и нам неизвестно, чтобы кто-то ещё пришёл к аналогичным выводам или антропоморфировал LaMDA, как Блейк», — заявил сотрудник Google Крис Паппас (Chris Pappas).

По словам Марка Ридла (Mark Riedl), профессора Технологического института Джорджии, ИИ-системы на данный момент не способны осознавать влияние своих ответов или поведения на людей и общество. В этом, по его мнению, кроется одна из уязвимостей технологии. «Система ИИ может не быть токсичной или предвзятой, но всё же она не понимает, что в некоторых обстоятельствах говорить о самоубийстве или насилии может быть неуместным», — считает Ридл.

По мнению экспертов, «разумность» ИИ может использоваться разработчиками для снятия с себя ответственности в случае, если ИИ-система допустит ошибку. Акцентирование внимания на разумности ИИ даст возможность обвинить в проблеме искусственный интеллект. «Компания могла сказать: «Это программа допустила ошибку». Нет, ваша компания создала эту программу. Вы несёте ответственность за эту ошибку. Рассуждения о разумности делают расплывчатым этот вопрос», — уверена Эмили Бендер.

Поскольку система LaMDA закрыта для сторонних исследователей, общественность и учёные вынуждены опираться на информацию, которую публикуют сотрудники Google. «Она должна быть доступна исследователям за пределами Google, чтобы продвигать работу более разнообразными способами. Чем больше учёных, тем больше разнообразие исследовательских вопросов, тем больше возможностей для новых открытий», — считает Марк Ридл.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»
Яндекс.Метрика