Как мозг различает только один голос в шумной толпе

при Университете Рочестера медицинский центр

Это исследование недавно было награждено премией Миши Маховальда 2021 года в области нейроморфной инженерии за его влияние на технологии, направленные на то, чтобы помочь людям с ограниченными возможностями улучшить сенсорное и моторное взаимодействие с миром.

В переполненном помещении, где разговаривают многие люди, например, на семейной вечеринке по случаю дня рождения или в оживленном ресторане, наш мозг имеет возможность сосредоточить наше внимание на одном ораторе. Понимание этого сценария и того, как мозг обрабатывает такие стимулы, как речь, язык и музыка, было предметом исследований Эдмунда Лалора, доктора философии, доцента кафедры нейробиологии и биомедицинской инженерии в Медицинском центре Университета Рочестера, пишет medicalxpress.com.

Недавно его лаборатория нашла новый ключ к разгадке того, как мозг может распаковывать эту информацию и намеренно слышать одного говорящего, отлучая от груди другого говорящего или игнорируя его. Мозг на самом деле делает дополнительный шаг, чтобы понять слова, исходящие от говорящего, которого слушают, и не делает этого шага, когда другие слова крутятся в разговоре. «Наши результаты показывают, что акустика как сопровождаемой истории, так и оставленной или проигнорированной истории обрабатывается одинаково», - сказал Лалор. «Но мы обнаружили, что между тем, что происходило потом в мозгу, существует четкое различие».

Для этого исследования, недавно опубликованного в The Journal of Neuroscience,участники одновременно слушали два рассказа, но их попросили сосредоточить внимание только на одном. Используя записи мозговых волн ЭЭГ, исследователи обнаружили, что история, на которую участники были проинструктированы, была преобразована в лингвистические единицы, известные как фонемы - это звуковые единицы, которые могут отличать одно слово от другого, в то время как другая история - нет.

«Это преобразование - первый шаг к пониманию истории, о которой идет речь», - сказал Лалор. «Звуки должны быть признаны соответствующими определенным лингвистическим категориям, таким как фонемы и слоги, чтобы мы могли в конечном итоге определить, какие слова произносятся - даже если они звучат по-разному - например, произносятся людьми с разными акцентами или разной высотой голоса».

Среди соавторов этой статьи аспирант из Рочестера Фархин Ахмед,и Эмили Теох из Тринити-колледжа Дублинского университета. Исследование финансировалось Ирландским научным фондом, Ирландским исследовательским советом правительства Ирландии, Пилотной программой Института нейробиологии Дел Монте и Национальным институтом глухоты и других коммуникативных расстройств.

Эта работа является продолжением исследования 2015 года, проведенного Лалором и опубликованного в журнале Cerebral Cortex. Это исследование недавно было награждено премией Миши Маховальда 2021 года в области нейроморфной инженерии за его влияние на технологии, направленные на то, чтобы помочь людям с ограниченными возможностями улучшить сенсорное и моторное взаимодействие с миром, например разработать более совершенные носимые устройства, например слуховые аппараты. Исследование было начато на Семинаре по нейроморфной инженерии теллурида 2012 года и привело к проекту многопартнерской организации Cognitively Controlled Hearing Aid, финансируемому Европейским Союзом, который успешно продемонстрировал систему декодирования слухового внимания в реальном времени.

«Получение этой награды - большая честь с двух сторон. Во-первых, обычно очень приятно быть признанным коллегами за то, что они сделали ценную и результативную работу. Это сообщество состоит из нейробиологов и инженеров, поэтому быть признанным ими - значит быть признанным. очень приятно, - сказал Лалор. «И, во-вторых, для меня большая честь быть связанным с Мишей Машовальдом, который был пионером в области нейроморфной инженерии и скончался слишком молодым».

Джон Фокс, доктор философии, директор Института нейробиологии Дель Монте, был соавтором этого исследования, которое показало, что можно использовать сигналы мозговых волн ЭЭГ, чтобы определить, на кого человек обращает внимание в среде с несколькими говорящими. Это была новая работа, поскольку она выходила за рамки стандартного подхода к изучению воздействия на средние сигналы мозга. «Наше исследование показало, что - почти в реальном времени - мы можем декодировать сигналы, чтобы точно определить, на кого вы обращаете внимание», - сказал Лалор.
Добавьте новости «Курьер.Среда» в избранное ⭐ – и Google будет показывать их выше остальных.

Партнерские материалы