SocialAI — це платформа, яка використовує штучний інтелект для взаємодії з користувачами, але викликає занепокоєння через ризики маніпуляцій і соціальної ізоляції.
Концепція “мертвого інтернету”, яка стверджує, що більша частина активності в мережі генерується штучними системами, набула нової актуальності з появою платформ на кшталт SocialAI. Ця соціальна мережа, створена Майклом Сайманом, пропонує користувачам отримувати зворотний зв’язок виключно від ботів, що спрямовано на подолання самотності. Водночас критики вказують на нездатність таких ботів забезпечити адекватний рівень комунікації, що ставить під сумнів ефективність цієї платформи для емоційної підтримки.
Основна ідея SocialAI полягає в тому, щоб забезпечити відчуття спільноти для тих, хто почувається ізольованим, пропонуючи “діалог” зі штучним інтелектом. Для цього користувачі можуть обирати тип ботів, що будуть взаємодіяти з ними, серед яких є “підтримувач”, “скептик” або “нерд”. Однак проблема полягає в тому, що ці боти часто використовують стандартні відповіді і демонструють обмежену емоційну гнучкість, що не дозволяє створити справжнє відчуття взаємодії.
Однією з основних загроз використання штучного інтелекту в таких платформах є його здатність генерувати недостовірну або небезпечну інформацію. Як показує випадок із платформою Bluesky, де боти надавали інструкції з виробництва нітрогліцерину, штучний інтелект може сприяти поширенню небезпечних порад. Такі інциденти підкреслюють важливість контролю та етичних стандартів у використанні штучного інтелекту в соціальних мережах.
Штучні інтелектуальні системи, на яких побудована SocialAI, використовують різні мовні моделі, які, ймовірно, базуються на технологіях, схожих на GPT-4. Однак точні деталі щодо моделей залишаються нерозкритими. Це створює додаткові питання щодо надійності та безпеки таких систем, особливо враховуючи зростаючий інтерес до теорії “мертвого інтернету” і маніпуляцій користувачами через автоматизовані відповіді.
Загалом, SocialAI викликає змішані відгуки. Хоча декому така взаємодія з ботами здається цікавою і навіть розважальною, з точки зору наукової спільноти виникають серйозні побоювання щодо соціальної ізоляції та маніпуляцій. Концепція “heavenbanning”, згадана еволюційним біологом Карлом Т. Бергстромом, підкреслює небезпеку того, що платформи подібного типу можуть сприяти ізоляції, створюючи ілюзію взаємодії, яка насправді є лише відображенням власних думок користувача.
У підсумку, хоча SocialAI може мати позитивний вплив як інструмент для саморефлексії, вона також несе ризики щодо етичного використання штучного інтелекту в соціальній сфері. Оскільки технології розвиваються, важливо забезпечити їхнє належне регулювання, щоб уникнути потенційних небезпек маніпуляцій та ізоляції користувачів.