Technology Stacks - Computer Science for Business Leaders 2016
En universel oversætter er en standard sci-fi trope: Babelfisken har eksisteret i mange former (tænk: C-3P0, Gibson's "Microsofts" og linguacode matrixen). IRL-lingvistik har længe betragtet oprettelsen af den slags teknologi det ultimative puslespil og den slags endgame af kodekrakning. Nu har forskere ved Massachusetts Institute of Technology meddelt, at de har opdaget en næsten universel ejendom på 37 sprog. Kaldet "Dependency Length Minimization" indikerer mønsteret ikke kun den underliggende menneskelige logik under komplekst sprog, men også potentialet til at skabe og genskabe følelser fra lignende dele.
DLM er i det væsentlige ideen om at navneord går tæt på adjektiver fordi det er lettere at holde ideen om et murstenhus i hovedet, hvis "mursten" og "huset" sidder tæt på hinanden. (Lyric, "Hun er et murstenhus", er langt mere mindeværdigt end lyricen, "Brick er det materiale, du vil bruge til at gøre hende til et hus.") I en pressemeddelelse tilbyder MIT dette eksempel:
(1) "John smed det gamle skraldesæde i køkkenet."
(2) "John smed det gamle skraldesæde i køkkenet ud."
Første sætning er lettere at læse, fordi der ikke er en hel masse affaldssæt, der sidder mellem kastet og ud. Og jo længere sætningen er, desto vigtigere er det at krympe afhængighedslængden for at sikre, at meningen overføres. Kernen i den nye undersøgelse, skriv forfatterne, er, at de har vist "at de samlede afhængighedslængder for alle sprog er kortere end konservative tilfældige basislinjer."
At vi alle deler de underliggende sprogregler er en ide, der er blevet sparket rundt i et stykke tid, men ingen har sparket det med så stor glæde som Noam Chomsky, den såkaldte radikale lingvist, der beskriver menneskets sprogstruktur som enten et mirakel eller et system. (Spoiler: Han tror ikke på mirakler.) På sin hjemmeside skildrer Chomsky ideen om universel grammatik således:
Jeg synes, at det vigtigste arbejde, der foregår, har at gøre med søgningen efter meget generelle og abstrakte egenskaber af det, der undertiden kaldes universel grammatik: generelle sproglige egenskaber, der afspejler en slags biologisk nødvendighed snarere end logisk nødvendighed; det vil sige egenskaber af sprog, der ikke logisk er nødvendige for et sådant system, men som er væsentlige invariant egenskaber af menneskers sprog og er kendt uden at lære. Vi kender disse egenskaber, men vi lærer dem ikke. Vi bruger kun vores viden om disse egenskaber som grundlag for læring.
Denne MIT undersøgelse er ikke den første til at flyde afhængighedslængde minimering. University of Edinburgh-sprogforskeren Jennifer Culbertson, der ikke var involveret i undersøgelsen, fortalte Ars Technica, at DLM gør et stærkt tilfælde baseret på vanskeligt at akkumulere beviser (dvs. en database på 37 sprog, der kan analyseres).
Googles nye sprog A.I. Kunne afslutte de dårlige oversættelsesmemes
Google Neural Machine Translation (GNMT) bruger dyb lære at oversætte tekst.
Livstidens 'UNREAL' Sæson 2 er endnu blødere, bevæger sig længere væk fra den menneskelige blik
UnREAL var et af de ægte soveværdier i sidste år: et løft for livets troværdighed og et meget originalt show, der stikker ud fra madding crowd. Sidste juli, heldigvis, Shiri Appleby og Constance-Zimmer-hovedrollen - som udforsker de etisk kompromitterede bag-scener
Rohingya Sprog: Drej en dialekt til et digitaliseret sprog
Mens Rohingya-folkene har oplevet en voldelig undertrykkelse i Myanmar, kunne de få et nyt redskab til at bevare deres kulturelle identitet: et digitalt sprog.