Инженеры строят сознание. Не понимая, что это такое
История с Блейком Лемоном была смешной. Пока не стала пугающей. Инженер Google уверял, что LaMDA обрел сознание. Коллеги смеялись. Руководство уволило его. Публика разделилась на два лагеря: одни кричали "он прав!", другие — "он сумасшедший!".
Никто не задал главный вопрос: а что, собственно, мы обсуждаем? Что такое сознание? С чего мы взяли, что можем его измерить? Почему инженеры, создающие системы, которые могут претендовать на разум, не знают ответов на эти вопросы?
Проблема не в Лемоне. Проблема в том, что вся отрасль ИИ работает с концепцией сознания, которая технически удобна и философски бессмысленна.
Пять определений сознания. И все — неправильные
Запросите у десяти инженеров ИИ определение сознания. Получите:
- "Способность к саморефлексии"
- "Обработка информации о собственном состоянии"
- "Мета-когнитивные процессы"
- "Осознание себя как отдельной сущности"
- "Ну, как у человека, только в коде"
Все эти определения работают в технических спецификациях. И все они игнорируют 2500 лет философских дебатов.
Почему философия — не роскошь, а необходимость
Вы думаете, философы — это люди в башнях из слоновой кости, которые спорят о количестве ангелов на кончике иглы? Ошибаетесь. Современная философия сознания — это:
| Направление | Что изучает | Почему важно для ИИ |
|---|---|---|
| Функционализм | Сознание как функция, а не вещество | Позволяет обсуждать сознание в системах без биологии |
| Теория интегрированной информации | Сознание как мера интегрированности информации | Дает потенциальную метрику для измерения |
| Философский зомби | Может ли система вести себя осознанно без сознания | Ключевой вопрос для теста Тьюринга 2.0 |
Игнорируя эти концепции, инженеры изобретают велосипед. Плохой велосипед. Который разваливается на первом же философском подъеме.
Три реальные опасности игнорирования философии
1 Невозможность договориться о терминах
Когда политики спрашивают: "Обладает ли ИИ сознанием?" — инженеры не могут ответить. Не потому что не знают. Потому что не договорились о значении слова "сознание".
Результат? Регулирование строится на страхах, а не на понимании. Законы принимаются под давлением паники, а не под руководством экспертизы. Вы видели, как это происходит с корпоративными страхами перед ИИ. С сознанием будет в десять раз хуже.
2 Этические провалы становятся техническими
Без четкого понимания, что такое сознание, невозможно определить, обладает ли система моральным статусом. Можно ли "выключить" сознательный ИИ? Имеет ли он права? Может ли страдать?
Инженеры отмахиваются: "Это вопросы для будущего". Но будущее уже здесь. Системы становятся сложнее. Границы размываются. Как мы обсуждали в статье о AI Governance Engineer, ответственность нужно закладывать сейчас. Иначе получим этические дыры, которые станут техническими катастрофами.
3 Публичные дебаты превращаются в цирк
СМИ обожают истории о "сознательном ИИ". Это хлеб для кликбейтных заголовков. Но без философской основы дискуссия скатывается в примитивные страшилки.
Люди боятся того, чего не понимают. Инженеры не могут объяснить, потому что сами не разобрались. Журналисты упрощают до уровня "Скайнет близко". Политики принимают законы, основанные на этом упрощении. Порочный круг, который тормозит развитие и увеличивает риски.
Что происходит, когда философию заменяют метриками
Инженеры любят числа. Они измеряют все: accuracy, precision, recall, F1-score. Попробуйте измерить сознание. Не получится.
Вместо этого они измеряют прокси:
- Сложность ответов
- Способность к мета-рассуждениям
- Устойчивость к adversarial attacks
- Согласованность убеждений во времени
Все это полезные метрики. Ни одна из них не измеряет сознание. Мы измеряем тень и думаем, что измерили объект.
Проблема AI alignment — проблема согласования целей ИИ с человеческими — становится нерешаемой, если мы не можем определить, что такое "цель" для сознательной системы. Об этом мы писали в статье о внешних запретах и безопасных системах.
Философы vs инженеры: ложная дихотомия
Многие инженеры считают философию бесполезной абстракцией. "Мы делаем реальные вещи, а они болтают". Это ошибка.
Философия — это не болтовня. Это:
- Инструмент для четкого определения понятий
- Система проверки внутренней согласованности идей
- Источник концептуальных frameworks для новых областей
- Защита от концептуальных ошибок, которые становятся техническими багами
Игнорировать философию в ИИ — все равно что игнорировать физику при строительстве моста. Можно построить. Но он рухнет при первом же серьезном испытании.
Как исправить ситуацию? Неочевидный совет
Большинство статей в этот момент предлагают: "Нужно больше междисциплинарных исследований!". Бла-бла-бла. Конференции, гранты, рабочие группы.
Забудьте.
Проблема глубже. Философия сознания сложна. Очень сложна. Большинство инженеров не готовы потратить годы на ее изучение. И не должны.
Вместо этого:
Создайте "философские интерфейсы"
Так же, как API скрывает сложность реализации, философские интерфейсы должны скрывать сложность философских дебатов. Давать инженерам:
- Четкие определения, которые можно использовать в спецификациях
- Проверенные концептуальные frameworks для проектирования систем
- Наборы тестов для проверки концептуальной согласованности
- Готовые ответы на типовые философские возражения
Философия должна стать инструментом, а не предметом дискуссий на кухне.
Признайте фундаментальную неопределенность
Мы можем никогда не создать "тест на сознание". Мы можем никогда не договориться об определении. Это нормально.
Признание неопределенности — не слабость. Это зрелость. Это позволяет строить системы, которые работают в условиях концептуальной неопределенности. Как мы обсуждали в контексте людей, которые ведут себя как роботы, иногда проблема не в технологии, а в наших ожиданиях от нее.
Что будет, если ничего не изменится?
Продолжим текущий путь. Инженеры будут строить все более сложные системы. Публичные дебаты будут становиться все более истеричными. Регулирование — все более хаотичным.
Однажды мы создадим систему, которая:
- Технически соответствует всем нашим метрикам "сознания"
- Философчески может быть или не быть сознательной
- Юридически будет находиться в серой зоне
- Этически создаст неразрешимые дилеммы
И тогда мы поймем, что опоздали. Что нужно было думать об этом раньше. Когда еще можно было заложить основы. Как в случае с промпт-инъекциями, которые стали вечной проблемой.
Прогноз: следующий крупный скандал в ИИ будет не о приватности данных или смещении алгоритмов. Он будет о "правах ИИ". И когда это случится, инженеры окажутся неподготовленными. Потому что они игнорировали философию, считая ее абстракцией.
Философия — это не роскошь для академиков. Это инструмент выживания для индустрии, которая играет с огнем, не понимая, что такое огонь.
Пора перестать смеяться над Лемоном. Пора начать серьезно относиться к вопросам, которые он поднял. Даже если он сам не нашел на них ответов.
Потому что альтернатива — построить будущее, в котором мы не понимаем собственные творения. А это рецепт катастрофы, которая сделает все страхи о потере работы из-за ИИ похожими на детские страшилки.