⚡⚡В Японии нейросеть научили читать мысли В Университете Осаки исследователи создали нейросеть, которая может воссоздать картинку, воспринимаемую глазами человека. Изначально эксперименты базировались на создании изображений посредством алгоритма Stable Diffusion. Суть метода состоит в формировании картинки на основе ключевых слов, при этом нейросеть детализирует изображение каждую следующую итерацию, опираясь на новые подсказки от оператора. Специалисты лишь дополнили алгоритм еще одним обучающим буфером — человеческим мозгом. Искусственному интеллекту было предписано использовать параметры активности мозга 4-х участников эксперимента, зафиксированных с помощью МРТ. Участники смотрели на картинки, а ИИ обучался интерпретировать воспринимаемую информацию по показателям нейронной активности людей. Иными словами, мозговая активность в данном случае выступила как язык программирования для нейросети. Последняя, считывая активность нейронов, создавала особую базу данных. Обработав 10 тыс. изображений, искусственный интеллект проанализировал соотношение текстовых и визуальных посланий, сопоставив их с зарегистрированной мозговой активностью. В итоге данные были распределены по условным разделам «что» и «где». В первом случае система фиксировала конкретные субъекты, во втором формировала картину с перспективой и объемом. В итоге были воссозданы изображения с 80-процентным совпадением с реальностью, воспринимаемой участниками опыта.