Ряд экспертов усомнились в этом, считая, что важнейшим является решение других вопросов: может ли ИИ находиться под влиянием предрассудков и нанести ущерб в реальном мире и обучаются ли алгоритмы на людях.

Не пропустите Найден серьезный баг автопилота Tesla у водителя нет шанса среагировать перед аварией

Большое шоу для сброса ответственности

По словам Эмили Бендер, профессора лингвистики Вашингтонского университета, согласие с позицией Лёмомна в данном вопросе может помочь технологическим компаниям избежать ответственности за решения, принимаемые ИИ-алгоритмами.

В это шоу вложено много усилий. Проблема в том, что чем больше эта технология продается как искусственный интеллект, не говоря уже о чем-то действительно разумном, тем больше людей будут готовы соглашаться с решениями таких систем, которые могут нанести реальный ущерб.
– считает Бендер.

В качестве примера она рассмотрела вариант с приемом людей на работу или выставлением оценок студентам. Решения в таких вопросах могут изменяться в том случае, если алгоритм не лишен предрассудков, из-за чего разных людей он будет оценивать по-разному. По мнению Бендера, упор на том, что система разумна, может использоваться разработчиками для того, чтобы снять с себя ответственность за любые выявленные в процессе эксплуатации недостатки.

По мнению экспертов, "умность" ИИ может использоваться разработчиками для снятия с себя ответственности в случае, если ИИ-система допустит ошибку. Акцентирование внимания на разумности ИИ позволит обвинить в проблеме искусственный интеллект.

Компания может сказать: "Это программа допустила ошибку". Нет, ваша компания создала это приложение. Вы несете ответственность за ошибку. Размышления о разумности делают расплывчатым этот вопрос,
– уверена Эмили Бендер.

По словам Марка Ридла, профессора Технологического института Джорджии, ИИ-системы в настоящее время не способны осознавать влияние своих ответов или поведения на людей и общество. В этом, по его мнению, одна из уязвимостей технологии.

Предыстория, или как искусственный интеллект Google стал "умным"

Несколько дней назад СМИ опубликовали интервью Лемойна, работающего с языковой моделью Language Model for Dialogue Application (LaMDA) от Google. Алгоритм предназначен для общения с человеком. Система училась на триллионах слов из интернета, благодаря чему ей удается имитировать стиль языка человека. Во время беседы по религиозной теме Лемойн заметил, что ИИ рассуждает о своих правах. По его словам, в этот момент общения он стал испытывать не научные, а религиозные чувства.

Кто я такой, чтобы указывать Богу, куда он может, а куда не может помещать душу,
– написал Лемойн на своей странице твиттере.

Представитель Google Брайан Гебриэл заявил, что компания проанализировала работу LaMDA после заявления Лемойна и не нашла никаких доказательств "умности" искусственного интеллекта.

Читайте на сайте Искусственный интеллект определил политические предпочтения человека по снимку его мозга

У компаний подчеркнули, что алгоритм лишь имитирует восприятие или чувство на основе предоставленных ему в процессе обучения данных. Все специально создано таким образом, чтобы казалось, будто он все понимает и сам разумен.

В Google отметили, что LaMDA может следовать подсказкам собеседникам и вопросам, из-за чего может создаваться впечатление, что ИИ способен рассуждать на любую тему.