Американские исследователи предложили отображать данные мозговой активности в реальном времени с помощью динамических аудиовизуализаций. Публикация об этом появилась в журнале PLoS ONE. Сотрудники Колумбийского университета в Нью-Йорке под руководством Элизабет Хиллман (Elizabeth Hillman) разработали алгоритмы для преобразования динамической составляющей нейровизуализационных данных в звуки различных музыкальных инструментов, а пространственной составляющей нейровизуализации и поведенческих данных — в цветовые коды. Таким образом, потоки нейрофизиологических записей превращаются в своеобразные музыкальные клипы. По замыслу авторов работы, подобная репрезентация позволяет интуитивно ассимилировать паттерны, ритмы и мотивы нервных импульсов и их поведенческие корреляты, чего не дают принятые методы интерпретации функциональной МРТ, широкопольного оптического картирования, микроскопии и других методов нейровизуализации. Новая методика не заменяет, но дополняет их, позволяя исследователю быстро сориентироваться в потоке данных, например, при скрининге. ВИДЕО - Movies with color and music visualize brain activity data in beautiful detail
Hide player controls
Hide resume playing