Краткое изложение исследования: С развитием технологии разрабатываются новые вычислительные платформы, которые могут помочь в понимании анализа нейронных данных. Из-за сложности высокой размерности нейронных данных анализ нейронных данных играет жизненно важную роль в понимании нейронной связи и структуры. Более того, чтобы понять желаемую задачу, методы анализа данных должны быть сосредоточены исключительно на обнаружении функций, лежащих в основе этой задачи, а шум должен быть удален без удаления функций или переменных, связанных с задачей. Кроме того, в этой статье описываются различные методы анализа данных, которые могут уменьшить усилия по изучению данных высокой размерности.

Связь с искусственным интеллектом:

Поскольку предметом этого исследования являются вычислительные структуры многомерных нейронных данных, анализ данных играет жизненно важную роль в искусственном интеллекте. Алгоритмы и методы работы с данными, обсуждаемые в этой статье, разработаны в области машинного обучения и глубокого обучения, которые являются двумя основными подмножествами искусственного интеллекта. Более того, решение сложности мозга может помочь в понимании структуры мозга, что может помочь в дальнейшем улучшении создания общего искусственного интеллекта и особенно в медицинской промышленности. Анализ данных многомерных нейронных данных является сложной задачей, так как мотив для поиска значимых данных для дальнейшего изучения.

Мотивация:

Основной мотивацией для изучения этой темы является поиск различных идей в многомерных нейронных данных. Кроме того, анализ данных имеет важное значение в области науки о данных и искусственного интеллекта. Делая правильный анализ, мы можем прийти к оптимальному решению этой задачи, или с неправильным анализом данная задача может быть ухудшена. Более того, в случае нейронных данных анализ данных очень сложен и затруднителен. Понимая правильную визуализацию и анализ нейронных данных, исследователи и практики могут лучше понять структуру и сложность мозга, что в дальнейшем помогает в решении проблем с болезнями, улучшении робототехники или даже общего искусственного интеллекта.

Область исследования: по мере того как наш мозг производит потенциал действия или «всплески» во времени быстро (~ 1 мс) через нейроны (Gao, 2017). Потенциал действия, созданный одним нейроном, представлен как одномерный точечный процесс. Однако миллиарды нейронов общаются друг с другом с помощью химических и электрических сигналов и выполняют очень сложные задачи. Анализ нейронных данных слишком сложен, однако по мере того, как все больше исследователей в области технологий придумывают новые экспериментальные методы для анализа данных, созданных более крупными нейронными популяциями, поскольку ранее мы были ограничены одномерным точечным процессом (Gao, 2017). Эта статья посвящена исключительно методам анализа данных, которые могут помочь понять мозг и создать общий искусственный интеллект.

Отношение к информатике в целом:

Нейроны содержат различные релевантные для задачи переменные, такие как прием пищи для решения сложных задач, которые присутствуют в различных комбинациях. Вычислительная роль играет жизненно важную роль в отношении размерности нейронного анализа (Fusi, 2016). Однако в нейронном анализе шум создает основную проблему, поскольку он увеличивает размерность, поскольку они бесполезны для кодирования и различения векторных ответов. Поскольку это подразумевает, что представления с более высокой размерностью не очень полезны в некоторых ситуациях, для этого требуются методы уменьшения размерности, такие как анализ основных компонентов, которые могут обрабатывать шум. Хотя для познания, поскольку задачи сфокусированы, расширение размерности также играет жизненно важную роль, что может выполняться с помощью современных алгоритмов машинного обучения, таких как SVM или сети глубокого обучения (Fusi, 2016). Кроме того, анализ временных рядов также необходим для понимания мозга, и когда дело доходит до шума, временные ряды дают небольшое представление о поведении и различиях этого нейрона.

Проблема исследования и вопрос исследования:

Какой анализ данных и вычислительные платформы можно использовать в многомерных нейронных данных?

Большинство функций или задач, выполняемых людьми, зависят от взаимодействия многих нейронов. Следовательно, исследователи рассматривают возможность совместного изучения популяции нейронов, а не одного нейрона (Cunningham, 2015). Но изучать мозг и связь нейронов гораздо сложнее и сложнее, поскольку существует около 86 миллиардов нейронов, из которых 1 нейрон соединяется примерно с 10 000 других нейронов, что создает сложную задачу для анализа нейронных данных. Кроме того, различные виды данных, доступных для нейронного анализа, такие как электрофизиологические данные, данные визуализации кальция, данные спайков и т. д., так что какой метод анализа данных следует использовать для данных или задачи, является жизненно важным вопросом, и знание данных для этой области очень важно. требуется больше. Кроме того, «цепочки нейронных импульсов высокой размерности представляют собой шумное наблюдение некоторого основного низкоразмерного и изменяющегося во времени представляющего интерес сигнала». (Гао, 2017). При анализе данных в нейронных данных другой серьезной проблемой является тип доступного шума и влияние шума на данные. При уменьшении размерности есть вероятность, что мы сможем удалить те переменные, которые содержат некоторую информацию, относящуюся к рассматриваемой задаче. . Хотя многомерная визуализация и анализ также являются проблемой, поскольку они требуют больших вычислительных ресурсов и очень ограничены. Более того, многомерный анализ сложен для понимания, так как мы должны придумать решение размерности и анализ сокращения переменных, которые бесполезны для анализа. Поскольку есть еще несколько проблем с многомерными данными:

  • Проклятие размерности, которое означает, что желаемые переменные и доступный для поиска объем в гиперпространстве становятся маленькими по сравнению с огромным возможным пространством (Янг, 2015).
  • По мере увеличения размерности переменная и функция также увеличиваются, что означает, что с функциями связана огромная разреженность, и определить корреляцию слишком сложно (Янг, 2015).
  • Многомерные данные, как правило, неструктурированы, а это означает, что в больших данных больше шума и неопределенностей. Что касается таких типов наборов данных, методы майнинга гораздо сложнее подобрать (Янг, 2015).
  • В случае кластеров многомерные данные могут вызвать экспоненциальный рост комбинации кластеров, и кластеризация становится недетерминированной полиномиальной по времени (NP-жесткой) (Янг, 2015).
  • Независимо от того, доступны ли современные компьютеры с хорошей скоростью и средствами хранения больших данных, методы и инструменты не разработаны для решения сложных многомерных данных (Ян, 2015).

Это некоторые серьезные проблемы, и проблемы возникают в основном для решения сложных многомерных данных, особенно в случае нейронных данных, которые учитывают множество переменных, функций и различных типов данных с шумом и анализируют этот тип данных. где мы не имеем никакого представления о шуме и функции. Мы должны придумать новые алгоритмы, методы статистического анализа, инструменты, методы и альтернативные подходы для решения таких типов проблем и вопросов.

Методы исследования:

  • Уменьшение размерности: чтобы понять структуру нейронных данных, необходимо изучить множество статистических методов. Поскольку нейронные данные имеют высокую размерность, методы уменьшения размерности играют жизненно важную роль в лучшей визуализации данных, анализе отдельных испытаний и изучении структуры ответов нейронной популяции (Cunningham, 2014). Основная цель уменьшения размерности состоит в том, чтобы распознать уменьшенную версию данных, которая фиксирует соответствующую информацию или основные характеристики данных, в которых данные распространяются. В геометрическом представлении он описывает, как многомерные входные объекты соответствуют различным вариациям этого объекта в одном и том же высокоуровневом представлении. Анализ главных компонентов (PCA) и факторный анализ (FA) являются двумя основными методами уменьшения размерности. (Fusi et al., 2016) описывает, что «PCA определяет направления, вдоль которых точки в пространстве скорости стрельбы имеют самое широкое распределение (дисперсию)». Направления, которые идентифицируются PCA, известны как основные компоненты и могут быть показаны графически или охарактеризованы в соответствии с величиной дисперсии данных. В PCA, как правило, PC1 и PC2 содержат наибольшую дисперсию данных. Тем не менее, в случае обнаружения шума в скоростях стрельбы (Fusi et al., 2016) описывается, что «третья компонента будет лишь немного отличаться от нуля, и можно было бы оценить правильную размерность для умеренных и известных величин шума путем вырезания из мельчайших компонентов». В общем, главные компоненты могут быть описаны как собственные векторы для матрицы ковариации данных.
  • Расширение размерности для разделения ввода и вывода: как следует из названия, оно описывается как противоположность уменьшению размерности и играет основную роль в качестве уменьшения размерности в анализе нейронных данных. Это жизненно важно, когда исследователи сосредоточены на анализе конкретной задачи, которая включает в себя некоторые решения по нескольким переменным. SVM (машины опорных векторов) и глубокие искусственные сети — хороший выбор для этих операций. Разделение с большим запасом является основной операцией и может легко различать входные данные и ответы. Более того, RNN в глубоких искусственных сетях может отображать многомерное нейронное представление. Выбирая правильные веса, также можно достичь смешанной избирательности или обучая промежуточные нейроны в скрытом слое, размерность часто расширяется в форме обратного распространения. Этот тип смешанной избирательности помогает найти идентичность стимула в форме сигнала и может использоваться для переназначения.
  • Методы скрытых переменных (LVM) и модели в пространстве состояний: модели LVM основаны на вероятностных моделях и показывают связь между скрытыми переменными и наблюдениями. Он обеспечивает структуру данных, в которой на данные влияют неизвестные скрытые переменные, и помогает в описании данных, прогнозах и обработке отсутствующих данных и т. д. (Gao, 2016). Эта модель считается гораздо более полезной в случае анализа нейронных данных, поскольку регистрируемые данные могут исходить от стольких ненаблюдаемых нейронов, поведения и внешних раздражителей. Модели пространства состояний являются частью данных временных рядов, в которых данные и нескрытые временные ряды отображаются с помощью марковского моделирования, в котором структура связана с наблюдением. Наиболее распространенные модели в пространстве состояний предполагают линейную гауссову структуру (Gao, 2016).

Альтернативное решение/подход:

  • Альтернативный для данной методики уменьшения размерности метод гораздо больше связан с преимуществами размерности. Как написано выше, в большинстве случаев размерность увеличивается за счет шумовых составляющих. Фузи и др. (2016) обсудили, что «то, что очевидное увеличение размерности из-за компонентов шума допускает разделение, которое не распространяется на различные реализации шума, предполагает, что размерность может быть оценена путем подсчета количества линейно разделимых раскрасок векторов скоростей стрельбы посредством перекрестной проверки. ” Основная идея этого метода заключается в обнаружении повторяющихся компонентов шума, которые уже были обнаружены в различных испытаниях, чтобы мы могли напрямую удалить эти компоненты шума из испытаний и моделей. Более того, в большем количестве испытаний одни и те же повторяющиеся компоненты демонстрируют зашумленное поведение, что помогает удалить данные из модели в будущих испытаниях или сценариях. Преимущество этого метода в случае зашумленных данных заключается в том, что он принимает форму и ориентацию этих данных и помогает в оценке размерности путем подсчета линейных разделимых окрасок векторов скорости нейронных импульсов.
  • Альтернативным методом многомерного представления нейронов является добавление в модель нелинейных нейронов. Нейронная популяция рассматривается как большее изменение количества параметров нейронов, что автоматически увеличивает размерность данных. Следовательно, добавление нелинейных нейронов со случайными синаптическими весами для создания смешанной избирательности в модели и может расширить размерность без ущерба для потери информации, которая должна быть необходима для анализа. Более того, это помогает найти корреляцию между размерностью и поведением нейрона. Основное преимущество этого метода заключается в увеличении размерности без потери какой-либо информации о данных, которые он находит в матрице несходства, следовательно, он вычисляет расстояние между различными скоростями всплесков, представленными разными нейронами.
  • Сетевые модели рассматриваются как альтернатива LVM, в которой сетевые модели, находя взаимосвязь между наблюдаемыми переменными, могут хорошо подходить для моделирования данных, тогда как в LVM они представляют наблюдения, полученные с помощью скрытых переменных данных. И если данные моделируются с использованием положительных факторов, с использованием однофакторной модели, модель будет рассматриваться как полносвязная сетевая модель, а в случае отрицательных факторов эта модель хорошо подходит для сетевых моделей низкого ранга, которые соответствует скрытой переменной. Преимущество использования сетевых моделей в том, что он работает как с данными высокого, так и с низким рангом, но хорошо работает только с наблюдаемыми переменными, поэтому это всего лишь альтернативный подход к данному реальному методу выше. Более того, если прямых путей между индикаторами нет, модель LVM подходит гораздо больше, так как не влияет ни на какие другие индикаторы в диаграмме путей, а в случае с известными путями сетевая модель работает лучше всего и помогает в решении основных -задача для многомерного анализа нейронных данных. (Борк и др., 2019).

Ссылки:

Чаванс, M.E.S.R.M. e. a., 2010. Скрытые переменные и модели структурных уравнений для продольных отношений: иллюстрация в эпидемиологии питания. Методология медицинских исследований BMC, том 10.

Дэвид Бадер, A.H.a. А., 2021. Размерность нейронных представлений для управления. Текущее мнение в области поведенческих наук, том 38, стр. 20–28.

Эрик Хансбергер, M.S.a. CE, 2014. Конкурирующие преимущества шума и неоднородности в нейронном кодировании. Ватерлоо, Канада: sn.

Гао, Ю., 2017. Методы статистического машинного обучения. s.l.: КОЛУМБИЙСКИЙ УНИВЕРСИТЕТ.

Джоэл Зильберберг, A.P.E.L.,. С.-Б., 2018. Надежное распространение информации через зашумленные нейронные цепи. Плос вычислительная биология.

Ларс Рутотто, S.J.O.W.L.L.N.a. SWF, 2020. Платформа машинного обучения для решения многомерных игр среднего поля и задач управления средним полем. ПНАС, 117 (17), стр. 9183–9193.

М. Пачитариу, N.S.S.K.M.C.K.H.a. К., 2016. Сортировка спайков в реальном времени для внеклеточной электрофизиологии с сотнями каналов. с.л.:с.н.

Николай Бородинов, С.Н.С.В.К.О.С.О.Р.К.В.&. SJ, 2019. Глубокие нейронные сети для понимания зашумленных данных, применяемых для извлечения физических свойств в сканирующей зондовой микроскопии. npj Вычислительные материалы, Том 5.

Рит ван Борк, M.R.L.J.W.J.K.S.R.a. DB, 2021. Модели и сети со скрытыми переменными: статистическая эквивалентность и проверяемость. Многомерное поведенческое исследование, 56 (2), стр. 175–198.

Шабнам Н. Кадир, Д.Ф.М.Г.К.Д.Х., 2014. Многомерный кластерный анализ с алгоритмом маскированной ЭМ. Нейронные вычисления, 26(11), стр. 2739–2394.

Стефано Фузи, E.K.M.a. М. Р., 2016. Почему нейроны смешиваются: высокая размерность для высшего, с.л.: Elsevier Ltd.

Цур*, А. Х. а. EE, 2021. Нейроморфная аналоговая реализация спайкового нейрона на основе нейронной инженерии для многомерного представления. границы в неврологии.

Синь-Ше Ян, С. Л.,. С. Л. а. Н. Т.-У., 2015. Информационный анализ многомерных данных и приложения. Математические проблемы в технике, том 2015.

Ю. Сун, С. Т. а. SG, 2010. Выбор функций на основе локального обучения для анализа многомерных данных. IEEE, том 32, стр. 1610–1626.

Ю, Дж. П. С. а. Б. М., 2014. Уменьшение размерности для крупномасштабных нейронных записей. Nat Neurosci., 17 (11), стр. 1500–1509.