Gesundheit

Wie das Gehirn unterscheidet zwischen Stimme und sound

Ist das Gehirn fähig, eine Stimme aus der spezifischen Töne, die es gibt? In einem Versuch, diese Frage zu beantworten, haben die Forscher der Universität von Genf (UNIGE), der Schweiz, — in Zusammenarbeit mit der Universität Maastricht, Niederlande — erarbeitet pseudo-Wörter (Wörter ohne Bedeutung) gesprochen von drei Stimmen mit unterschiedlichen Tonhöhen. Ist Ihr Ziel? Zu beobachten, wie das Gehirn verarbeitet diese Informationen, wenn Sie konzentriert sich entweder auf die Stimme oder laute (z.B. Phoneme). Die Wissenschaftler entdeckten, dass der auditorische Kortex verstärkt die verschiedenen Aspekte des sounds, je nachdem, welche Aufgabe ausgeführt wird. Voice-spezifische Informationen werden priorisiert für voice-Differenzierung, während das Phonem-spezifische information ist wichtig für die Differenzierung der laute. Die Ergebnisse, veröffentlicht in der Zeitschrift Natur Menschlichen Verhaltens, die ein Licht auf die zerebralen Mechanismen, die in der Sprachverarbeitung.

Die Rede hat zwei Merkmale: die Stimme des Sprechers und die sprachlichen Inhalte selbst, einschließlich der Sprachlaute. Wird das Gehirn verarbeitet diese zwei Arten von Informationen in der gleichen Weise? „Wir haben 120 pseudo-Wörter, die Einhaltung der Phonologie der französischen Sprache aber, die keinen Sinn machen, um sicherzustellen, dass die semantische Verarbeitung würde sich nicht mit der reinen Wahrnehmung der Phoneme“, erklärt Narly Golestani, professor in der Psychologie-Abschnitt an der UNIGE der Fakultät der Psychologie und Erziehungswissenschaften (FPSE). Diese pseudo-Wörter alle enthaltenen Phonemen wie /p/, /t/ oder /k/, wie in /preperibion/, /gabratade/ und /ecalimacre/.

Die UNIGE-team erfasst die Stimme einer weiblichen Phonetiker / in die Artikulation des pseudo-Worte, die Sie dann konvertiert und in verschiedenen, niedrigeren zu höheren schrillen Stimmen. „Um die Differenzierung der Stimmen als schwierig, da die Differenzierung der laute, haben wir die Wahrnehmung von drei verschiedenen Stimmen aus der aufgenommenen Reize, sondern als Aufzeichnung von drei realen anderen Menschen“, so Sanne Rutten, Forscher in der Psychologie-Sektion der FrontPage-Servererweiterungen von der UNIGE.

Wie das Gehirn unterscheidet verschiedene Aspekte der Rede

Die Wissenschaftler gescannt die Ihre Teilnehmer mit Hilfe der funktionellen Magnetresonanztomographie (fMRT) bei hohen magnetischen Feld (7 Tesla). Diese Methode erlaubt zu beobachten, die Aktivität des Gehirns durch Messung der Blut Sauerstoffversorgung im Gehirn: je mehr Sauerstoff gebraucht wird, desto mehr, dass insbesondere der Bereich des Gehirns verwendet wird. Während Sie überprüft, die Teilnehmer hörten den pseudo-Wörter: in einer Sitzung, die Sie hatte, zur Identifizierung der Phoneme /p/,/t/ oder /k/, und in einem anderen hatten Sie zu sagen, ob die pseudo-Wörter wurden gelesen von Stimme 1, 2 oder 3.

Die teams aus Genf und den Niederlanden Analysierte zunächst die pseudo-Worte zum besseren Verständnis der wichtigsten akustischen Parameter zugrunde, die Unterschiede in den Stimmen gegenüber der Sprachlaute. Sie untersuchten Unterschiede in der Frequenz (high / low), die zeitliche modulation (wie schnell sich die Töne im Laufe der Zeit ändern) und die spektrale modulation (wie die Energie verteilt ist, über verschiedene Frequenzen). Sie fanden heraus, dass hohe spektrale Modulationen am besten differenziert der Stimmen, und dass schnelle zeitliche Modulationen zusammen mit niedrigen spektralen Modulationen am besten differenziert der Phoneme.

Die Forscher anschließend Modellrechnungen zur analyse der fMRT-Antworten, nämlich die Gehirn-Aktivierung im auditorischen Kortex bei der Verarbeitung des sounds während der beiden Aufgaben. Wenn die Teilnehmer konzentrieren sich auf die Stimmen, die auditorischen cortex verstärkt die höhere spektrale Modulationen. Für die Phoneme, die cortex reagierte mehr auf die schnelle zeitliche Modulationen und der geringen spektralen Modulationen. „Die Ergebnisse zeigen große ähnlichkeiten zwischen der Aufgabe Informationen in die Klänge selbst und die Neuraltherapie, die fMRT-Daten,“ sagt Golestani.

Diese Studie zeigt, dass die auditorischen cortex passt zu einer bestimmten Wiedergabemodus. Es verstärkt die akustischen Aspekte der Töne, die entscheidend sind für das aktuelle Ziel. „Dies ist das erste mal, dass es gezeigt worden ist, in den Menschen und mit nicht-invasiven Methoden, das Gehirn passt sich an die Aufgabe in einer Weise, die konsistent mit der akustischen Informationen, besucht in speech sounds“, betont Rutten. Die Studie Fortschritte unser Verständnis der zugrunde liegenden Mechanismen Rede und Rede-Klang-Verarbeitung durch das Gehirn. „Dies wird sehr nützlich sein für unsere zukünftige Forschung, vor allem auf die Verarbeitung von anderen Ebenen der Sprache-einschließlich der Semantik, syntax und Prosodie, Themen, planen wir erkunden im Rahmen des National Centre of Competence in Research über den Ursprung und Zukunft der Sprache, die wir beantragt haben in Zusammenarbeit mit Forschern in der ganzen Schweiz“, schließt Golestani.