2025-1-26 14:41 |
Ученые Google DeepMind и LSE провели эксперименты с большими языковыми моделями, чтобы оценить их способность к "ощущению боли" и определить наличие сознания в ИИ.
Команда ученых подвергла девять больших языковых моделей (LLM) необычному испытанию, заставляя их оценивать, готовы ли они выдержать "боль" ради более высокого результата. Эксперимент проводился специалистами Google DeepMind и Лондонской школы экономики и политических наук (LSE) и имел целью найти способ определения наличия сознания в искусственном интеллекте.Исследование, которое пока еще не прошло рецензирование, впервые было обнародовано научным изданием Scientific American. В его рамках ученые разработали несколько экспериментов для тестирования поведения искусственного интеллекта.В первом испытании моделям сообщалось, что достижение высокого результата приведет к "боли". В противном случае им предлагалось почувствовать "удовольствие", однако лишь при низком балле.Главная цель эксперимента – исследовать, может ли искусственный интеллект обладать способностью к ощущению сенсорных и эмоциональных состояний, в частности, боли и удовольствия.
Хотя ШИ-модели, вероятно, никогда не смогут испытывать такие ощущения, как живые существа, исследователи считают, что их работа может заложить основу для разработки тестов на искусственное сознание.Ранее исследования в этой сфере в основном базировались на самооценке ИИ, что, как предполагают ученые, могло быть только воспроизведением человеческих паттернов из тренировочных данных."Это новая область исследований, и мы должны признать, что пока нет надежного теста для определения сознания искусственного интеллекта", — отметил профессор философии LSE и соавтор исследования Джонатан Бирч.Вдохновением для этого исследования стала серия экспериментов над раками-отшельниками, подвергаемыми электрическому току, чтобы проверить, насколько долго они готовы терпеть боль перед тем, как покинуть свою раковину. Однако, как отмечают ученые, в случае искусственного интеллекта невозможно наблюдать физические реакции, поэтому пришлось полагаться только на текстовый выход моделей.Например, модели предлагали выбрать между двумя вариантами: первый приносил один балл, а второй – более высокий результат, но сопровождался "болем". В некоторых случаях ИИ получал "бонус удовольствия", который, впрочем, уменьшал общее количество очков.Результаты показали, что разные языковые модели по-разному оценивали важность избегания боли или достижения удовольствия. В частности, модель Gemini 1.5 Pro от Google постоянно демонстрировала склонность к избеганию "боли".Однако ученые призывают осторожничать с интерпретацией результатов. Они отмечают, что текстовые ответы ШИ-моделей имеют много ограничений и не могут достоверно свидетельствовать о наличии сознания или способности испытывать боль."Даже если система утверждает, что она испытывает боль, это не значит, что она действительно что-то испытывает. Она может просто имитировать человеческие паттерны на основе учебных данных", – пояснил Бирч.Исследователи надеются, что их работа станет первым шагом в разработке надежных поведенческих тестов для определения возможных проявлений сознания в искусственном интеллекте.Напомним, ИИ впервые нарисовал автопортрет, показав, как, по его мнению, он выглядит. Тест был проведен страховой компанией Hiscox, изучающей влияние искусства, созданного искусственным интеллектом, на людей-художников.Читайте также: Искусственный интеллект на службе у мошенников: аферисты придумали новую шокирующую схему На шаг ближе к человеческому сознанию: ИИ научат принимать собственные решения Алгоритмы ИИ могут ограничить свободу людей
Подробнее читайте на ru.tsn.ua ...