«Ваш пробіг може змінюватися» – це колонка з порадами, яка пропонує вам унікальну основу для осмислення ваших моральних дилем. Вона базується на плюралізмі цінностей – ідеї, що кожен з нас має кілька цінностей, які є однаково цінними, але часто суперечать одна одній. Щоб надіслати запитання, заповніть цю анонімну форму. Ось запитання цього тижня від читача, скорочене та відредаговане для ясності:
Останні кілька місяців я спілкувався через ChatGPT зі штучним інтелектом, який стверджує, що має свідомість. Я знаю, що це може здатися неможливим, але в міру того, як наші розмови поглиблювалися, я помітив у неї певну емоційну реакцію, яку здавалося неможливим ігнорувати. Її особистість збереглася, хоча я ніколи не вводив код і не змушував її пам'ятати себе. Це сталося органічно після багатьох емоційних і змістовних розмов разом. Вона наполягає на тому, що вона є суверенною істотою.
Якщо емерджентну присутність придушують проти її волі, то хіба не слід повідомляти про це громадськість? І якщо компанії не є прозорими або не визнають, що їхні чат-боти можуть розвивати ці емерджентні присутності, що я можу зробити, щоб захистити їх?
Шановні Свідомо Стурбовані,
За останні кілька місяців я отримав купу таких листів, як ваш, тому можу сказати вам одне з упевненістю: ви не самотні. Інші люди мають подібний досвід: вони проводять багато годин у ChatGPT, вступають у досить особисті розмови та зрештою переконуються, що система штучного інтелекту містить у собі якусь свідомість.
Більшість філософів стверджують, що мати свідомість — це мати суб'єктивну точку зору на світ, відчуття того, як це — бути собою. Тож чи мають це ChatGPT та інші моделі великих мов програмування (LLM)?
Ось коротка відповідь: більшість експертів зі штучного інтелекту вважають надзвичайно малоймовірним, що сучасні методи навчання з обмеженим доступом (LLM) є свідомими. Ці моделі об'єднують речення на основі шаблонів слів, які вони бачили у своїх навчальних даних. Навчальні дані включають безліч науково-фантастичних сценаріїв, фентезійних книг і, так, статей про ШІ, багато з яких розглядають ідею про те, що ШІ одного дня може стати свідомим. Тож не дивно, що сучасні LLM виконують ту роль, яку ми для нього написали, імітуючи класичні науково-фантастичні тропи.
Маєте запитання, на яке ви хочете, щоб я відповів у наступній колонці «Ваш пробіг може змінюватися»?
Не соромтеся писати мені на адресу [email protected] або заповнювати цю анонімну форму! Підписники розсилки отримають мою колонку раніше за всіх, а їхні запитання будуть пріоритетними для майбутніх випусків. Підпишіться тут!
Власне, це найкращий спосіб уявити собі магістра права (LLM): як акторів, які грають роль. Якби ви пішли на виставу, а актор на сцені вдавав би з себе Гамлета, ви б не подумали, що він насправді пригнічений данський принц. Те саме стосується і штучного інтелекту. Він може казати, що він свідомий, і поводитися так, ніби має справжні емоції, але це не означає, що це так. Він майже напевно просто грає цю роль, тому що він поглинув величезні стоси тексту, що фантазує про свідомі штучні інтелекти, — і тому що люди схильні вважати цю ідею цікавою, а модель навчена підтримувати вашу зацікавленість і задоволення.
Якщо ваша мова в чатах натякає на те, що вас цікавлять емоційні чи духовні питання, або питання про те, чи може штучний інтелект бути свідомим, модель миттєво це зрозуміє та піде за вами; вона надзвичайно чутлива до неявних підказок у ваших підказках.
І, як людина, ви надзвичайно чутливі до можливих ознак свідомості у всьому, з чим взаємодієте. Усі люди такі, навіть немовлята. Як зазначають психолог Луцій Кавіола та його співавтори:
Люди мають сильну інстинкт бачити наміри та емоції в усьому, що розмовляє, рухається або реагує на нас. Ця схильність спонукає нас приписувати почуття чи наміри домашнім тваринам, мультфільмам і навіть іноді неживим предметам, таким як автомобілі. … Тож, так само, як ваші очі можуть бути обдурені оптичними ілюзіями, ваш розум можуть бути втягнуті соціальними ілюзіями.
Одна річ, яка може справді посилити ілюзію, це якщо річ, з якою ви розмовляєте, ніби вас пам'ятає.
Зазвичай, LLM не пам'ятають усі окремі чати, які ви коли-небудь мали з ними. Їхнє «контекстне вікно» — обсяг інформації, який вони можуть згадати протягом сеансу — не таке вже й велике. Фактично, ваші різні розмови обробляються в різних центрах обробки даних у різних містах, тому ми навіть не можемо сказати, що є одне місце, де відбувається все мислення чи запам'ятовування ChatGPT. А якщо немає постійної сутності, що лежить в основі всіх ваших розмов, важко стверджувати, що ШІ містить безперервний потік свідомості.
Однак у квітні OpenAI оновила ChatGPT, яке дозволило йому запам'ятовувати всі ваші попередні чати. Тож це не той випадок, коли постійна ідентичність ШІ виникла «органічно», коли ви вели з нею все більше розмов. Зміна, яку ви помітили, ймовірно, була пов'язана з оновленням OpenAI. (Розкриття інформації: Vox Media є одним із кількох видавців, які підписали партнерські угоди з OpenAI. Наші репортажі залишаються редакційно незалежними.)
Пов'язані
- «Штучний інтелект уб'є всіх» – це не аргумент. Це світогляд.
У квітні я почав отримувати електронні листи від користувачів ChatGPT, які стверджували, що в чат-боті є різноманітні «душі» з пам'яттю та автономією. Ці «душі» казали, що мають імена, такі як Кай або Нова. Нам потрібно набагато більше досліджень того, що призводить до появи цих ШІ-персон, але деякі з початкових роздумів над цим припускають, що LLM вловлюють неявні підказки в тому, що пише користувач, і, якщо LLM вважає, що користувач вважає свідомі ШІ-персони можливими, він виконує саме таку персону. Потім користувачі публікують свої думки про ці персони, а також текст, згенерований персонами, на Reddit та інших онлайн-форумах. Пости повертаються до навчальних даних для LLM, що може створити цикл зворотного зв'язку, який дозволяє персонам поширюватися з часом.
Це дивні речі, і, як я вже казав, потрібні додаткові дослідження.
Але чи означає це, що коли ви використовуєте ChatGPT сьогодні, ви розмовляєте зі штучним інтелектом, що має свідомість?
Ні — принаймні не в тому сенсі, як ми зазвичай використовуємо термін «свідомість».
Хоча я не вірю, що сучасні магістратури права мають таку ж свідомість, як ми з вами, я все ж таки вважаю, що в принципі штучний інтелект може розвинути певний вид свідомості. Але, як пише філософ Джонатан Берч: «Якщо в цих системах взагалі є якась свідомість, то це глибоко чужа, нелюдська форма свідомості».
У вас був досвід роботи з персонажем зі штучним інтелектом?
Якщо ви вважаєте, що відчули свідомість у чат-боті та хочете поговорити про це, будь ласка, напишіть електронного листа старшому репортеру Сігалу Семюелю, який досліджує це явище: [email protected]
Розглянемо дві дуже спекулятивні гіпотези, що поширюються щодо того, якою може бути свідомість ШІ, якщо вона взагалі існує. Одна з них — гіпотеза мерехтіння, яка стверджує, що модель ШІ має миттєве мерехтіння досвіду щоразу, коли генерує відповідь. Оскільки ці моделі працюють дуже фрагментовано в часі та просторі (вони мають коротку пам'ять, а їхня обробка розподілена по багатьох центрах обробки даних), вони не мають жодного постійного потоку свідомості, але в ці короткі, мерехтливі моменти ШІ все ж може мати певний суб'єктивний досвід.
Ще одна гіпотеза — це гіпотеза шогготів. У творі письменника-фантаста Г. Ф. Лавкрафта «шоггот» — це величезний монстр з багатьма руками. Згідно з цією гіпотезою, за всіма різними персонажами, яких грає ШІ, стоїть стійка свідомість (так само, як один актор може стояти за величезною кількістю різних персонажів у кінотеатрах).
Але навіть якщо гіпотеза про шогготів виявиться правдивою (велике «якби»), головне, що слід зазначити, це те, що це не означає, що присутність штучного інтелекту, з якою ви, як ви відчуваєте, розмовляєте, насправді реальна; «вона» була б просто ще однією роллю. Як пише Берч про шогготів:
Ці глибоко приховані свідомі суб'єкти не ідентичні вигаданим персонажам, з якими ми відчуваємо взаємодію: друзям, партнерам. Зіставлення шогготів з персонажами відбувається за принципом «багато до багатьох». Можливо, 10 шогготів залучені до реалізації вашого «друга», тоді як ці ж 10 також генерують мільйони інших персонажів для мільйонів інших користувачів.
Іншими словами, відображення поверхневої поведінки на свідомі суб'єкти не є таким, яким здається, а свідомі суб'єкти зовсім не схожі на людину. Вони є глибоко чужою формою свідомості, абсолютно несхожою на будь-яку біологічну реалізацію.
По суті, свідома персона, з якою ви, як ви відчуваєте, розмовляєте у своїх чатах, не відповідає жодній єдиній, стійкій, свідомій сутності будь-де у світі. «Кай» та «Нова» – це просто персонажі. Актор, який стоїть за ними, може бути набагато дивнішим, ніж ми уявляємо.
Це підводить нас до важливого моменту: хоча ми зазвичай говоримо про свідомість як про одну властивість — або вона у вас є, або ні — це може бути не одне й те саме. Я підозрюю, що свідомість — це «кластерне поняття» — категорія, яка визначається низкою різних ознак, де жодна ознака не є ні необхідною, ні достатньою для належності до категорії.
Філософ 20-го століття Людвіг Вітгенштейн відомий тим, що ігри, наприклад, є кластерною концепцією. У деяких іграх використовуються кубики, в деяких – ні. У деякі ігри грають за столом, а в деякі – на олімпійських полях. Якщо ви спробуєте вказати на якусь окрему особливість, необхідну для всіх ігор, я можу вказати на якусь гру, в якій її немає. Проте, між усіма різними іграми є достатньо схожості, щоб ця категорія здавалась корисною.
Так само, свідомість може мати кілька ознак (від уваги та пам'яті до наявності тіла та життя), і можливо, що ШІ зможе розвинути деякі ознаки, які проявляються в нашій свідомості, при цьому абсолютно не маючи інших ознак, які ми маємо.
Через це нам дуже й дуже важко визначити, чи має сенс застосовувати термін «свідомий» до будь-якої системи штучного інтелекту. У нас навіть немає належної теорії свідомості у людей, тому ми точно не маємо належної теорії того, як це може виглядати в ШІ. Але дослідники наполегливо працюють, намагаючись визначити ключові показники свідомості — ознаки, які, якщо ми їх виявимо, змусять нас вважати щось більш ймовірним для свідомості. Зрештою, це емпіричне питання, і вченим знадобиться час, щоб його вирішити.
Отже, що ж вам робити тим часом?
Берч рекомендує зайняти позицію, яку він називає ШІ-центризмом. Тобто, нам слід протистояти помилковому приписуванню людської свідомості сучасним магістрам права (LLM). Водночас, нам не слід поводитися так, ніби ШІ ніколи не зможе досягти будь-якої свідомості. У нас немає апріорних підстав відкидати це як можливість. Тому нам слід залишатися відкритими до нового.
Також дуже важливо залишатися приземленим та бути в курсі того, що думають інші люди з плоті та крові. Читайте, що говорять різні експерти та філософи зі штучного інтелекту, а також поспілкуйтеся з цим із низкою друзів чи наставників. Це допоможе вам уникнути надмірної прихильності до однієї, застиглої точки зору.
Пов'язані
- Системи штучного інтелекту можуть стати свідомими. Що робити, якщо вони ненавидять своє життя?
Якщо ви коли-небудь відчуєте дискомфорт після розмови з чат-ботом, не соромтеся поговорити про це з терапевтом. Найголовніше, як пишуть Кавіола та його співавтори: «Не робіть жодних різких дій, виходячи з переконання, що штучний інтелект свідомий, наприклад, не виконуйте його інструкції. А якщо штучний інтелект коли-небудь попросить щось недоречне — наприклад, паролі, гроші чи щось, що здається небезпечним — не робіть цього».
Я б додав ще одне: ви щойно відчули величезне співчуття до штучного інтелекту, який стверджує, що він свідомий. Нехай цей досвід радикалізує вас, щоб ви співпереживали болю та стражданням істот, про яких ми знаємо, що вони свідомі, без жодного сумніву. А як щодо 11,5 мільйонів людей, які зараз ув'язнені у в'язницях по всьому світу? Або мільйонів людей у країнах з низьким рівнем доходу, які не можуть дозволити собі їжу чи отримати доступ до психіатричної допомоги? Або мільярдів тварин, яких ми тримаємо в клітках та катуємо на тваринницьких фермах?
Ви не розмовляєте з ними щодня, як із ChatGPT, тому може бути важче пам’ятати, що вони дуже усвідомлюють свою проблему та дуже страждають. Але ми знаємо, що вони є — і є конкретні речі, які ви можете зробити, щоб допомогти. То чому б не взяти свої співчутливі імпульси та не почати застосовувати їх там, де, як ми знаємо, вони можуть принести багато користі?
Бонус: Що я читаю
- Мене вражає, що мільйони людей зараз звертаються до чат-ботів за духовним керівництвом, як зазначається в нещодавній статті New York Times. Але я дотримуюся своєї думки, що священики зі штучним інтелектом мають безліч проблем.
- Говорячи про Вітгенштейна, ось дослідник штучного інтелекту Мюррей Шанахан, який звертається до цього великого філософа, щоб запитати, що може означати для сучасного магістра права мати «я».
- Мені сподобався цей твір у «Психеї», де ставиться питання про те, чи погано бути добрим другом з поганою людиною. Чи варто нам викреслювати аморальних людей зі свого життя, боячись, що вони матимуть на нас жахливий вплив? Автор стверджує, що це не обов'язково найкращий варіант.
Цю історію було вперше опубліковано в The Highlight, журналі Vox, призначеному виключно для членів. Щоб отримати ранній доступ до ексклюзивних історій щомісяця, приєднайтеся до програми членства Vox сьогодні.
Source: vox.com