Низка експертів засумнівалися у цьому, вважаючи, що найважливішим є вирішення інших питань: чи може ШІ перебувати під впливом забобонів і завдати шкоди у реальному світі, і чи навчаються алгоритми на людях.

Не пропустіть Знайдено серйозний баг автопілота Tesla водій не має шансу зреагувати перед аварією

Велике шоу для скидання відповідальності

За словами Емілі Бендер, професора лінгвістики Вашингтонського університету, згода з позицією Лемойна в даному питанні може допомогти технологічним компаніям уникнути відповідальності за рішення, що приймаються ШІ-алгоритмами.

У це шоу вкладено багато зусиль. Проблема в тому, що чим більше ця технологія продається як штучний інтелект, не кажучи вже про щось справді розумне, тим більше людей будуть готові погоджуватися з рішеннями таких систем, які можуть завдати реальної шкоди,
— вважає Бендер.

Як приклад вона розглянула варіант із прийомом людей на роботу чи виставленням оцінок студентам. Рішення у таких питаннях можуть змінюватися у разі, якщо алгоритм не позбавлений забобонів, через що різних людей він оцінюватиме по-різному. На думку Бендера, акцент на тому, що система розумна, може використовуватися розробниками для того, щоб зняти з себе відповідальність за будь-які виявлені в процесі експлуатації недоліки.

На думку експертів, "розумність" ШІ може використовуватися розробниками для зняття з себе відповідальності у випадку, якщо ШІ-система припуститься помилки. Акцентування уваги на розумності ШІ дозволить звинуватити у проблемі штучний інтелект.

Компанія може сказати: "Це програма припустилася помилки". Ні, ваша компанія створила цю програму. Ви несете відповідальність за цю помилку. Міркування про розумність роблять розпливчастим це питання,
– впевнена Емілі Бендер.

За словами Марка Рідла, професора Технологічного інституту Джорджії, ШІ-системи на цей час не здатні усвідомлювати вплив своїх відповідей або поведінки на людей та суспільство. У цьому, на його думку, є одна з уразливостей технології.

Передісторія, або як штучний інтелект Google став "розумним"

Декілька днів тому ЗМІ опублікували інтерв'ю Лемойна, який працює з мовною моделлю Language Model for Dialogue Application (LaMDA) від Google. Алгоритм призначений для спілкування з людиною. Система навчалася на трильйонах слів з інтернету, завдяки цьому їй вдається імітувати стиль мови людини. Під час бесіди на релігійну тему Лемойн зауважив, що ШІ розмірковує про свої права. За його словами, у цей момент спілкування він почав переживати не наукові, а релігійні почуття.

Хто я такий, щоб вказувати Богу, куди він може, а куди не може поміщати душу,
– написав Лемойн на своїй сторінці твітері.

Представник Google Брайан Гебріел заявив, що компанія проаналізувала роботу LaMDA після заяви Лемойна і не знайшла жодних доказів "розумності" штучного інтелекту.

Читайте на сайті Штучний інтелект визначив політичні вподобання людини за знімком її мозку

У компаній наголосили, що алгоритм лише імітує сприйняття або почуття на основі наданих йому в процесі навчання даних. Все спеціально створено таким чином, щоб здавалося, наче він все розуміє і сам є розумним.

У Google відзначили, що LaMDA може слідувати підказкам співрозмовникам і питанням, через що може створюватися враження, що ШІ здатен розмірковувати на будь-яку тему.