10 Cutting-Edge-Phonetics Trends der Zukunft

Phonetics hat an der Wende des Jahrhunderts einen langen Weg seit den guten alten Tagen von Daniel Jones und seine Kollegen in London kommen. Technologie und Massenkommunikation haben auf dem Gebiet der Phonetik revolutioniert, so dass Durchbrüche die Gründer nie vorstellen können. Die folgenden Previews einige dieser erstaunlichen neuen Richtungen.

Trainingscomputer zu erkennen, menschliche Emotionen in der Sprache

Offensichtlich gibt es viele Situationen, in denen in Rede Emotionserkennungs wichtig sein kann. Überlegen Sie, wie Sie Ihre Stimme zunehmend angespannt können, wie Sie für einen Computer Operator (endlich) Hand am Telefon warten Sie auf einer realen Person. Oder mehr ernst nehmen, betrachten die Menschen in Notsituationen, wie ein Operator 911 arbeiten. Major, potenziell lebensbedrohliche Probleme können auftreten, wenn ein Operator 911 kann nicht verstehen, was Sie sagen.

Arbeiten mit Emotionen in der Sprache ist ein innovatives Forschungsthema in vielen Laboratorien weltweit. Zum Beispiel Dr. Carlos Busso an der University of Texas in Dallas hat Paarung computerisiert Stimmen und visuelle Köpfe zum Ausdruck, die Emotionen der Wut, Freude und Traurigkeit experimentiert. Diese Arbeit hat sich im Vergleich die Sprache der Akteure und gewöhnliche Menschen in naturalistischer Situationen. Aus den Audio-Aufnahmen verwendet Busso Tonhöhe Funktionen Emotionen zu klassifizieren. Er benutzt dann Motion-Tracking-Technologie, um Lautsprecher "Gesichtsbewegungen während des Sprechens aufzuzeichnen. Die Ergebnisse zeigen, dass bestimmte Regionen des Gesichts sind kritischer für die Expression bestimmte Emotionen als andere.

Sprach- und Wissenschaftler können nun die Ergebnisse dieser Studien verwenden glaubhafter zu schaffen Avatare (Computerized menschenähnlichen Zeichen) und besser zu verstehen Störungen, wie Parkinson-Krankheit (in der Desintegration des Nervensystems verursacht einen Verlust des Gesichtsausdruckes) und Autismus (in denen die Teilnahme an facial cues scheint ein Problem zu sein).

Animieren von Silizium Vokaltrakt

Verschiedene Möglichkeiten, können Sie den menschlichen Vokaltrakt helfen, zu verstehen. Eine Möglichkeit ist es, den menschlichen Körper durch die Anatomie und Physiologie zu untersuchen. Ein anderer Weg ist Modelle des Systems zu konstruieren und die biomechanischen Eigenschaften dieser Schöpfungen studieren. Silicon Vokaltrakt sind eine neue Art von Modell, das verwendet werden kann Sprachsynthese, die künstliche Erzeugung von Sprache durch Maschine.

Der Beginn der Sprachsynthese geht mit einem Dudelsack artigen Sprechmaschine zu den 1700er Jahren tatsächlich wieder aus Leder Balg (zu dienen, wie der Lunge) und ein Rohr (wie die Stimmlippen dienen). Obwohl dieses System seinen Weg durch Sprach quiekste war es nicht möglich, viel von der Sprachquelle oder Filter zu entschlüsseln durch seine Komponenten zu studieren.

Heute Menschen, die von Sprechmaschinen fasziniert bleiben, darunter Roboter und humanoiden Kreationen. Solche Roboter helfen mit Animation und anderen künstlerischen Zwecken, sowie dazu beitragen, Forscher bessere anatomische Systeme zu verstehen.

einen menschenähnlichen artikulatorischen System Herstellung ist nicht einfach. Der menschliche Körper hat eine sehr spezifische Dichte, Dämpfung, Elastizität und Trägheitseigenschaften, die nicht leicht zu reproduzieren sind. Die sich ändernden physikalischen Formen des Vokaltraktes sind auch schwierig zu mechanisch reproduzieren. Zum Beispiel ist die Zunge ein muskuläre Hydrostat Das schont sein Volumen, wenn ihre Form verändern. Die Zunge längt wenn vorsteht und Buckeln, wenn sie zurückgezogen.

Dr. Atsuo Takanishi an der Waseda-Universität in Japan hat Jahrzehnte damit verbracht, einen Silizium Kopf zu perfektionieren, die Vokale, Konsonanten und Frikative in der japanischen produzieren kann. Sie können Filme seiner verschiedenen contraptions beobachten, einschließlich Silizium Stimmlippen, motorisierter Zungen und zahnradgetriebenen Lippen und im Gesicht.

Erste Rohr und synthetischen

Verfahren zum Synthetisieren von Sprache mehr als cerebral Roboter Aufbau beinhaltet elektronischen oder mathematischen Modellen des Spracherzeugungssystems. Nachdem die Forscher diese komplexen Systeme zu verstehen, können sie sie erstellen und dann diese Systeme in einem Computer manipulieren, um die menschliche System zu simulieren (wenn auch elektronisch). Gunnar Fant, die Modelle der Beziehung zwischen der menschlichen Sprache Anatomie und Formanten-Frequenzen entwickelt, angeführt diese Art von Arbeit in den 1950er Jahren. Das Unternehmen stützt sich auch auf die physikalischen Modelle von Hermann von Helmholtz, die beschrieben, wie einzelne Resonatoren und gekoppelten Resonatoren Form Eingangssignal.

Neuere Versionen von Röhrenmodelle machen Durchbrüche mit schwierigen Problemen, wie die Stimmen von Frauen und Kindern zu replizieren, als auch Computer, die Illusion zu geben, dass sie singen erfolgreich. Brad Story, Professor an der University of Arizona, arbeitet an einem Prototyp namens Rohr Talker. Dieses System basiert auf modellierten Physiologie der Stimmlippen und der oberen Atemwege-System. Sein Entwurf enthält Videobilder der Stimmlippen und MRT-Aufnahmen des Vokaltrakts während des Sprechens genommen. beide artikulatorischen und akustischen Einschränkungen Durch die Verwendung von Geschichte und sein Team können virtuelle Artikulatoren modellieren und zu bewegen glatt, sprachähnliche Bewegungen zu schaffen. Das Ergebnis ist eine Schallwelle, die gehört werden kann, analysiert und im Vergleich zu realen Rede.

Rohr Talker hat sich in einigen seltsamen und interessante Art und Weise modifiziert. Zum Beispiel legen nahe, traditionelle Modelle der Sprache, dass die Sprach- und Filterkomponenten sollten getrennt betrachtet werden. Doch für manche Arten von gesungenen Stimme (und vielleicht für eine Stimme der Kinder), kann dies nicht der Fall sein. Neuere Versionen des Rohres Talker haben nichtlineare Wechselwirkungen zwischen Quelle und Filter als neue mögliche Kombinationen zu einer besseren Modell solche Arten von Stimme und Gesang getestet.

Ein weiteres Modell mit schlauchartigen Designs hat eine neue europäische Sprachsynthese-Liedwettbewerb gewann nicht nur plausibel gesprochenen Sprache zu machen, aber auch für das Singen (Sie können die unheimliche Schauspiel von transparenten 3D computerisierte Vokaltrakt Zeuge, von Dr. Peter Birkholz entwickelt, ein Duett zu singen).

Das Training mit Baldi und andere Avatare

Lehrmittel, wie Avatare, die Fachreferenten verschiedener Sprachen sind so konzipiert, sind ein weiterer interessanter Trend in der Phonetik. Solche Systeme können mit Schwerhörige oder Personen mit besonderen Schwierigkeiten der Interaktion mit Live-Sprachpartner (wie zum Beispiel Personen mit Autismus) Lehrer, indem sie zusätzliche Praxis mit Unterrichtspläne, Unterstützung bei der Ausbildung mit der zweiten Sprache Lernen, Arbeiten helfen.

Unter der Leitung von Professor Dominic Massaro an der University of California in Santa Cruz, haben die Forscher mit einem 3D-sprechenden Kopf namens Baldi, dazu in der Lage viele Aufgaben kommen. Zum Beispiel hat Baldi geholfen japanischen Studenten entwickeln ihre englischen Akzent und hat in der Gehörlosenbildung unterstützt. In neueren Versionen hat Baldi Kopf transparent geworden, um besser seine Vokaltrakt zu zeigen, so dass die Lernenden von Sprachen, in denen besondere Zunge und des Rachens Positionen wichtig (wie Arabisch) sind, können sehen, was los ist. Baldi hat sogar sprouted Beine, Arme, und einen Körper, weil ein Gesten kann der Avatar in einigen Situationen zu einer effektiveren Sprachlernsituation hinzuzufügen. Diese Art der Forschung legt nahe, dass die Arbeit mit Avataren eine mutige und vielversprechende Zukunft für Phonetik halten kann.

Hilfe für die stummen Gespräch mit stillen Sprachschnittstellen

Silent Sprachschnittstelle (SSI) kann in militärischen Anwendungen besonders nützlich sein, beispielsweise für das Personal in lauten Cockpits oder Fahrzeuge, die sie daran hindern, zu hören sich selbst sprechen oder von von einem Mikrofon aufgezeichnet wird.

Darüber hinaus kann SSI anderen helfen, die nicht hörbaren Ton aus ihrer Stimmfalten erzeugen können, aber ihre Artikulatoren (Zunge, Lippen und Kiefer) immer noch funktionieren. eine künstliche Stimmquelle würde dieses Problem zu lindern. Wenn die Position der Zunge der Person in Echtzeit verfolgt werden, und diese Informationen wurden in einen Computer eingegeben, könnte die zwei mit einer Stimmhaftigkeit Quelle gekoppelt werden und, presto, Rede.

Mehrere spannende Arbeits Prototypen für SSIs sind derzeit in der Entwicklung. Die folgende Fokus auf artikulatorische akustischen Prinzipien und Fleisch-Punkt Artikulator Tracking-Technologien:

  • Forscher in Südafrika arbeiten an einem System mit Elektropalatografie (EPG).

  • Wissenschaftler an der Universität von Georgia erforschen die Verwendung eines Permanentmagnet-Tracking-System.

  • Andere Forscher arbeiten an Lippe und Zunge-Tracking-Systeme.

Eines Tages ist das ultimative Ziel ist es, Menschen zu haben, die auf Grund nicht sprechen kann zum Verlust des Larynx einfach ihr Handy herausziehen (oder ein Gerät in etwa dieser Größe), einen Knopf drücken, und haben dann eine hohe Qualität synthetische Stimme sprechen für sie, wie sie artikulieren.

Visualizing Zungenbewegung für Schlaganfall-Patienten

Viele Menschen mit linken kortikalen Hirnschäden haben Sprechapraxie (AOS), ein Problem, die Produktion von Sprache zu steuern klingt. Obwohl diese Patienten in der Regel die Sprache verstehen, ziemlich gut, wenn sie einen bestimmten Ton auszusprechen wollen, sagen Sie "s" im Wort "see ", der Ton zu hören, kann falsch, wie sie als"she. "AOS ist sehr frustrierend für die Patienten, weil sie sie in der Regel wissen, einen Ton in Fehler produziert haben. Sie häufig das Gefühl, dass sie wissen, was zu sagen, aber sie können es einfach nicht raus.

Eine bewährte Prinzip bekannt, diese Patienten zu helfen, ist die Praxis (Übung macht den Meister), vor allem, da solche Personen wegen Frustration, Depression zu stoppen neigen zu sprechen, und mit anderen Familienmitgliedern übernehmen und für sie sprechen. Ein weiteres wichtiges therapeutisches Prinzip ist Artikulationstraining. Die Universität von Dallas in Texas Labor (in Verbindung mit Kollegen an der University of Pittsburgh) wird Personen mit AOS visuelles Feedback geben die Position ihrer Zunge während des Sprechens über. Diese Intervention beruht auf der Prämisse aus, dass Personen mit AOS haben einen Zusammenbruch mit Sound-Sequenzierung und Ton umgesetzt, sondern ihre Auge-zu-Sprache-Feedback Monitoring-Systeme sind intakt.

Eine Reihe von Studien haben gezeigt, dass diese Methode Personen mit AOS erhöhen die Genauigkeit ihrer Tonerzeugung nach einem Schlaganfall helfen kann. Die bisherige Arbeit hat sich auf Informationen aus einer einzigen Artikulationsdatenpunkt (wie der Zungenspitze) verlassen. Zukünftige Arbeiten geben Patienten eine 3D-Avatar, die sie in der Online-Bewegung ihrer Zunge zeigt, während sie sprechen. Dadurch wird die Behandlung einer breiteren Palette von Sprachlauten erlauben und ermöglicht es Klinikern Art der Artikulation zu behandeln, sowie Ort.

Sortieren von mehr männliche Stimme von weniger männliche Stimme

Eine Reihe von Eigenschaften in der Stimme kann tatsächlich Männlichkeit zeigen. Phonetiker haben Begriffe für diese:

  • Mehr männliche Sprache (MMS)

  • Weniger männliche Sprache (LMS)

MMS ist niedriger fundamentale Frequenz (Die Tonhöhe eine Person hört). Die beiden scheinen auch Unterschiede in der zu haben, spektral Qualität (Wie schrilles ist die hissiness) der Frikative. Auch MMS Menschen haben weniger ausgeprägte Vokalraum als Individuen beurteilt LMS (LMS Talker verwenden größere Zunge Exkursionen während des Gesprächs Bedeutung).

Firmen oder Regierungen können in der Lage sein, diese Informationen zu verwenden, um einen männlichen gegenüber weiblichen Sprachdetektor zu entwerfen und vielleicht eine noch detailliertere Detektor (gerade im Vergleich zu Homosexuell) für einfache Arten von Entscheidungen. Allerdings Geschlecht durch Sprachförder ist komplizierter als eine allgemeine Einschätzung der biologischen Eigenschaften des anderen Geschlechts. Das heißt, trotz allem, was der populären Kultur oft schon sagt, ist die Rede von Homosexuell Männer nicht nur eine feminisierte Version der Rede von gerade Männer zu sein scheinen (oder die Rede von Lesben eine masculinized Version der Rede von geraden Frauen).

Ron Smyth, ein Professor an der Universität von Toronto, hat untersucht, um die Unterschiede zwischen mehr und weniger Homosexuell klingender männlichen Rede. Seine Arbeit zeigt, dass die folgende komplexe Mischung aus akustischen Eigenschaften charakterisiert "Homosexuell klingender Sprache":

  • Vokale näher an den Rändern des Vokalraum erzeugten

  • Stopp Konsonanten mit mehr Stimmeinsatz Zeiten (VOTs)

  • Längere / s / und / # 643- / Frikativlaute mit höheren Spitzenfrequenzen

  • Mehr Licht "l" allophones

Smyth Arbeit zeigt auch, dass viele dieser Urteile auch auf Annahmen abhängig gemacht von den Hörern, die Art der Sprachproben zur Verfügung gestellt und auf dem Geschlecht und sexueller Orientierung der Zuhörer selbst. Sexuelle Orientierung und Sprache ist ein Dauerthema der Forschung, ob populär-kulturellen Stereotypen zu bestimmen, basiert auf etwas greifbar, und ob die Wahrnehmung der sexuellen Orientierung (Homosexuell Menschen selbst erklärter gaydar) Ist das, was sie behauptet, in der Regel werden (Seine Arbeit hat gezeigt, dass die Menschen die gaydar basierend auf Rede nicht zuverlässig ist.)

Diese Probleme beziehen sich auf das Gebiet der sociolinguistics, die Untersuchung der Beziehung zwischen der Sprache und der Gesellschaft. Studien haben gezeigt, zum Beispiel, dass junge (heterosexuelle) Männer werden ihre Grundfrequenz senken, wenn eine junge weibliche Frager, anstatt ein Männchen, den Raum betritt. Diese Männer vermutlich machen sich attraktiv durch eine untere Stimme. Wenn die bisherigen Studien Ergebnisse genau sind, könnte eine Forschung davon aus, dass unter den gleichen Versuchsbedingungen, Frauen die Behauchtheit ihrer Stimme erhöhen würde, ein Merkmal bekannt, dass die Wahrnehmung von Attraktivität weiblicher Sprache zu erhöhen.

Herauszufinden, den fremden Akzent-Syndrom (FAS)

Foreign Accent Syndrome (FAS) ist eine motorische Störung Rede wo vorhanden Erwachsene mit ausländischen klingender Sprache als Ergebnis der mistiming und Prosodie Anomalien von Erkrankung des Gehirns führt. Weiter geht es gleichermaßen die Öffentlichkeit und Wissenschaftler zu faszinieren. Studie von Individuen, diese Störung aufweisen, können möglicherweise ein besseres Bild geben, von denen Gehirn-Systeme in der Produktion und das Verständnis Akzent beteiligt sind.

Bisher sind die meisten der FAS Fälle gab, Muttersprache Englisch Individuen, obwohl zunehmend andere europäische Sprachen auch aufgezeichnet werden. Jetzt mehrere nicht-indogermanische (Hebräisch, Japanisch und Arabisch) Fälle erfasst wurden. Die Forscher sind daran interessiert, in denen Sorten von Sprachen betroffen sind, und Forscher in Frage stellen, inwieweit die Stress- und oder Silbe basierte prosodischen Faktoren (allgemein quantifiziert, wie Pairwise Variability Index, (PVI)) Spielt eine Rolle, ob diese Patienten als fremd wahrgenommen wird, und ob es hoch PVI und Nieder PVI FAS-Subtypen.

Ein weiteres Rätsel in der FAS Bild ist, wie Fälle, die von frank fokale Läsionen (wie zB durch Schlaganfall oder Tumor) führen kann, zu denen von weniger spezifisch oder unbekannter Ätiologie (wie Migräne, Allergie oder möglicherweise psychogener Ursachen) in Beziehung gesetzt werden. Eine Person mit einer Läsion in einem gut etablierten Hirnregion zu-Sprache-Funktion zu entsprechen bekannt (wie die perisylvische Sprache Zone) kann eine plausible Ursache für FAS haben angenommen werden. Die Situation für Personen ohne bekannte physiologische Ursache ist weniger klar.

Viele Patienten an der Universität von Texas in Dallas in die Klinik genannt wegen des Verdachts FAS mit diagnostiziert wurde Konversionsstörung. Dies ist ein Zustand, in dem Patienten neurologische Symptome, die medizinische Untersuchung nicht erklären kann. Konversionsstörung ist nicht Simulieren (Vortäuschen Krankheit) und es kann Sprache beeinflussen, aber das ist nicht dasselbe wie der FAS. Um beste FAS bewerten, sollten Fachleute arbeiten eng in einem Team, das einen Psychologen und Psychiater umfasst ideal. lautliche Tests einschließlich auszuschließen vorsätzliche, versehentliche oder nachgeahmten Akzent Modifikation ist ebenfalls wichtig.

Die Entdeckung der Genetik von Sprache

Phonetiker haben mehr Interesse an der schnelllebigen und spannenden Gebiet der Genetik werden die Grundlage von Sprache und Sprache zu finden. Ein Tumult begann in den 1980er Jahren mit der Entdeckung einer Familie in West London, die eine Reihe von familienbedingten Sprech- und Sprachprobleme hatten. Zwischen den verschiedenen Mitgliedern der Familie (mit dem Namen KE) waren neun Geschwister. Vier dieser Geschwister hatten Probleme mit Verständnis ausgesprochen, das Verständnis Sätze wie "Der Junge mit dem Tiger gejagt wird" bedeutet "Der Junge, den Tiger zu jagen." Sie ließen auch Töne am Anfang der Worte, wie zum Beispiel sagen, "Kunst", wenn sie sagen, die beabsichtigen, "herb." Von einem solchen Verhalten, wurde klar, es war etwas-Familie verwandt insbesondere ihre Sprache und die Sprache zu beeinflussen.

In der Mitte der 1990er Jahre begann eine Gruppe von Oxford University Genetiker für das beschädigte Gen in dieser Familie zu suchen. Sie fanden heraus, dies führte Störung, wenn nur ein Gen von einer Generation zur nächsten weitergegeben wurde (autosomal-dominant) Und war nicht geschlechtsgebunden. Weitere Untersuchungen haben gemerkt, das Gen in einen Bereich auf dem Chromosom 7, die Sprache und Sprachstörung 1 (SPCH1) genannt wurde. Die Genetiker verlief die genaue Position des Chromosoms 7 Bruch im Falle eines anderen Kindes mit einer genetischen Sprech- und Sprachstörungen zu lokalisieren. Es stellte sich heraus, um die KE Fälle in einer erstaunlichen Weise zu beziehen: Sowohl codierte etwas calledForkhead Box Protein (FOXP2), ein Transkriptions Protein, das Codes andere Faktoren für neurologische, Darm und Lunge Systeme benötigt.

FOXP2 ist mit der Spracherwerb in jungen Singvögeln, Echoortung bei Fledermäusen verbunden sind, und möglicherweise auch in anderen vocal-Learning-Arten, wie Wale und Elefanten. Mäuse, die mit Mensch-FOXP2 Gene gespleißt in ihre DNA emittiert niedrigen flippige Quietschen und wuchs verschiedene neuronale Muster im Gehirn in Regionen mit Lernen beteiligt.

Wie alle spannenden wissenschaftlichen Geschichten ist die FOXP2 Geschichte nicht unumstritten. Viele beliebte Berichte über diese Entdeckungen zu machen vereinfachte Ansprüche, die multifaktorielle genetische Grundlage für Sprache und Sprache mit Blick auf. Rede physisch möglich war zum Beispiel der Abstieg des menschlichen Larynx zweifellos wichtig bei der Herstellung, im Vergleich zu den Vokaltrakt von Schimpansen. Doch dieser genetischen Prozess scheint nicht wahrscheinlich zu FOXP2 gebunden, was darauf hindeutet, dass andere Genorte wohl beteiligt sind. Tatsächlich entstehen andere Gene bereits. FOXP2 schaltet ein Gen Contactin-associated protein-like 2 (CNTNAP2) genannt. Dieses Gen wurde in sowohl spezifische Sprachentwicklungsstörung (SLI) und Autismus. Nervenzellen in das sich entwickelnde Gehirn, insbesondere in Schaltungen mit der Sprache verbunden sind, bereitstellen CNTNAP2, die das Protein kodiert.

Passende Dialekte für Spaß und Profit

Viele Menschen ihre gesprochenen Akzent durch den Verlauf eines Tages ändern Sie den Akzent der Menschen zu entsprechen, zu dem sie reden. Sie können dies nennen ein Akzent Schwamm zu sein, obwohl es mehr technisch bezeichnet als Dialekt Matching oder registrieren Anpassung.

Dialect Anpassung ist für Leute, ganz natürlich. In der Tat hat es eine der heißen Bereichen in der Computerspracherkennung für das Potenzial der Anpassung eines Call-in-Telefon Anfrage mit einem Online-Antwort im Dialekt angepasst werden. Weil die Menschen die Gruppenzugehörigkeit zu schätzen scheinen, ist die Idee, den Computer zu haben, schnell Ihren Dialekt erkennen und Sie mit einem Telefon-Freund oder Computerstimme zusammenpassen, die Sie übereinstimmt.

Die Forscher sind der Gestaltung von Computersystemen mit Telefoneinheit Erkennung und Telefoneinheit Anpassungsmodule. Telefonanlagen solcher Technologien kann den Akzent des Anrufers ermitteln, extrahieren Sie die Merkmale dieser Akzent, und ändern Sie die synthetisierten Intonation an den Anrufer reagieren, indem sie am besten passende dieser Person Akzent. Wenn es richtig gemacht, kann es zu einer größeren Verständlichkeit führen und vielleicht ein besseres subjektives Gefühl im Gespräch. Auf der anderen Seite, wenn es nicht gut gemacht, können die Menschen nachgeahmten oder verspottet fühlen. Sie können sich vorstellen, wie diese Art der Sache kann in EDV-Dating-Systemen verwendet werden.

Dialect Matching ist auch natürlich für Orca Wale, Tümmler und Speer-nosed Fledermäuse auch. Orcas und Delfine verwenden koordinierte Quietschen und Pfeifen zu entscheiden, was sie jagen und reisen. Studium der Speer-nosed Fledermäuse hat gezeigt, dass die Weibchen ihre Anrufe entsprechen den anderen Mitgliedern ihrer Roost zu rekrutieren, wenn sie eine reiche Nahrungsquelle und gemeinsam verteidigen ihre Nahrung von anderen Fledermäusen finden. Laut Biologen sind diese Tierlaute alle Fälle von für die Gruppenzugehörigkeit zu signalisieren.

Menü