⚡⚡В Японии нейросеть научили читать мысли
В Университете Осаки исследователи создали нейросеть, которая может воссоздать картинку, воспринимаемую глазами человека.
Изначально эксперименты базировались на создании изображений посредством алгоритма Stable Diffusion. Суть метода состоит в формировании картинки на основе ключевых слов, при этом нейросеть детализирует изображение каждую следующую итерацию, опираясь на новые подсказки от оператора.
Специалисты лишь дополнили алгоритм еще одним обучающим буфером — человеческим мозгом. Искусственному интеллекту было предписано использовать параметры активности мозга 4-х участников эксперимента, зафиксированных с помощью МРТ. Участники смотрели на картинки, а ИИ обучался интерпретировать воспринимаемую информацию по показателям нейронной активности людей.
Иными словами, мозговая активность в данном случае выступила как язык программирования для нейросети. Последняя, считывая активность нейронов, создавала особую базу данных.
Обработав 10 тыс. изображений, искусственный интеллект проанализировал соотношение текстовых и визуальных посланий, сопоставив их с зарегистрированной мозговой активностью.
В итоге данные были распределены по условным разделам «что» и «где». В первом случае система фиксировала конкретные субъекты, во втором формировала картину с перспективой и объемом.
В итоге были воссозданы изображения с 80-процентным совпадением с реальностью, воспринимаемой участниками опыта.