Штучний інтелект

Філософ з Кембриджа сумнівається у свідомості ШІ

Навіть якщо ШІ стане свідомим, це ще не означає моральної цінності — етика починається лише з чуттєвості, каже дослідник.


Підписуйтеся на нас в Гугл Новини, а також читайте в Телеграм і Фейсбук


Філософи дедалі частіше ставлять під сумнів твердження про свідому штучну інтелігенцію, наголошуючи на відсутності переконливих доказів її існування.

by @freepik

Філософ Кембриджського університету Том Макклелланд вважає, що сучасна наука не має надійного розуміння «свідомості», тобто «суб’єктивного переживання буття». Через це неможливо перевірити, чи можуть машини справді бути свідомими. Він називає єдиною виправданою позицією агностицизм, тобто визнання принципової невизначеності. Як зазначає дослідник, «ми просто не зможемо цього визначити, і це може залишатися правдою дуже довго» .

Макклелланд також розрізняє свідомість і чуттєвість, яку він визначає як «здатність переживати страждання або насолоду». Саме чуттєвість, а не сам факт усвідомлення, має етичне значення. «Свідомість може бути нейтральним станом», — пояснює він. «Етика починається там, де з’являються добрі або погані переживання» .

У дискусіях про штучну свідомість існують два табори. Перший стверджує, що відтворення функціональної архітектури мозку зробить ШІ свідомим. Другий наполягає, що свідомість можлива лише у «втіленому органічному суб’єкті». Макклелланд підкреслює, що обидві позиції роблять «стрибок віри», виходячи за межі наявних доказів .

Окрему небезпеку він бачить у риториці технологічної індустрії. За його словами, «розмови про штучну свідомість часто є частиною брендингу». Це може відволікати ресурси від реальних етичних проблем. Він наводить приклад тварин, здатних відчувати біль, але ігнорованих суспільством .

Отже, твердження про свідомий ШІ залишаються спекулятивними. За відсутності теорії та перевірюваних критеріїв, обережний агностицизм виглядає найбільш науково обґрунтованою позицією. Це дозволяє уникнути як технооптимізму, так і помилкової моральної тривоги.


Підписуйтеся на нас в Гугл Новини, а також читайте в Телеграм і Фейсбук


Back to top button