MIT-lingvistene sier at menneskelige språk kan være forutsigbare

Иностранцы в Библии (100% доказательство)

Иностранцы в Библии (100% доказательство)
Anonim

En universell oversetter er en standard sci-fi trope: Babelfisken har eksistert i mange former (tenk: C-3P0, Gibson's "Microsofts" og linguacode-matrisen). IRL-lingvister har lenge vurdert å skape en slik teknologi som det ultimate puslespillet og den slags endgame av kodekrekking. Nå har forskere ved Massachusetts Institute of Technology annonsert at de har oppdaget en nesten universell eiendom på 37 språk. Kalt "Dependency Length Minimization", indikerer mønsteret ikke bare den underliggende menneskelige logikken under komplekst språk, men også potensialet til å opprette og gjenskape følelser fra like deler.

I hovedsak er DLM ideen om at substantiver går nær adjektiver fordi det er lettere å holde ideen om et mursteinhus i hodet ditt hvis "murstein" og "hus" sidelegges nært. (Lyric, "Hun er et murhus", er langt mer minneverdig enn lyrikken, "Brick er materialet du vil bruke til å gjøre henne til et hus.") I en pressemelding tilbyr MIT dette eksemplet:

(1) "John kastet den gamle søppelplassen på kjøkkenet."

(2) "John kastet den gamle søppelplassen i kjøkkenet ut."

Første setning er lettere å lese, fordi det ikke er en hel masse søppelord som sitter mellom kastet og ut. Og jo lengre setningen er, desto viktigere er det å krympe avhengighetslengden for å sikre at meningen overføres. Kjernen i den nye studien, skriv forfatterne, er at de har vist at "de totale avhengighetslengder for alle språk er kortere enn konservative tilfeldige basislinjer."

At vi alle deler underliggende språkregler er en idé som har blitt sparket rundt for en stund, men ingen har sparket det med så mye rykte som Noam Chomsky, den såkalte radikale språkforskeren som beskriver menneskelig språkstruktur som enten et mirakel eller et system. (Spoiler: Han tror ikke på mirakler.) På sin nettside avbilder Chomsky ideen om universell grammatikk slik:

Jeg tror det viktigste arbeidet som foregår, har å gjøre med å søke etter svært generelle og abstrakte egenskaper av det som iblant kalles universell grammatikk: generelle språkegenskaper som reflekterer en slags biologisk nødvendighet i stedet for logisk nødvendighet; det vil si egenskaper av språk som ikke er logisk nødvendig for et slikt system, men som er essensielle invariant egenskaper av menneskelig språk og er kjent uten å lære. Vi kjenner disse egenskapene, men vi lærer dem ikke. Vi bruker bare vår kunnskap om disse egenskapene som grunnlag for læring.

Denne MIT-studien er ikke den første til å flyte avhengighetslengdeminimering. University of Edinburgh-språkforskeren Jennifer Culbertson, som ikke var involvert i studien, fortalte Ars Technica at DLM gjør et sterkt sak basert på vanskelig å samle bevis (det vil si en database med 37 språk som kan analyseres).