Med fremkomsten af Amazonas Alexa og Siri's konsekvente kapacitet til at påtage sig flere opgaver (og få mere og mere sassy), spekulerer mange på: Hvad er der næste for naturlig sprogforståelse og konversationelle stemmeinterfaces?
Der er flere virksomheder hals og hals i dette løb. Der er Wit.ai, virksomheden Facebook erhvervet - du kan legetøj med demo. (Prøv denne kommando: "Jeg vil se katte.") Apple har sit HomeKit, og det gør det, som Apple gør bedst - sparker røv. Amazon er også ude med sin Alexa-udstyrede Echo og Echo Dot.
Et selskab varmt på sporet af naturlig sprogforståelse er MindMeld. MindMeld leverer sine naturlige sprogkompetencer til andre virksomheder, der søger at tilføje intelligente stemmeinterfaces til deres produkter, tjenester eller enheder. Det San Francisco-baserede firma giver partnere infrastrukturen og tilpasningsmulighederne, så deres enheder kan have deres egne, finjusterede personlige assistenter. MindMeld annoncerede for nylig et sådant partnerskab med Spotify, men arbejder også med bilvirksomheder, forsvarsagenturer, e-handelsfirmaer og meget mere. (Og det er naturligvis ikke muligt at dele mange specifikke aspekter af sådanne partnerskaber.)
Inverse talte med MindMelds Sam Vasisht om tilstanden af talegjenkendelse feltet - men han var hurtig at påpege, at "voice recognition" som en virksomhed er nu et "dagligdags emne." I dag handler det om "naturlig sprogforståelse. "Stemmegenkendelse har næsten nået sin zenith: Efter 50-årige udviklingsår kan AI'er nu effektivt genkende tal. Disse systemer er næsten bedre end mennesker på jobbet, og vil helt sikkert overgå dødelige dødelige snart.
Det forudsigelige næste skridt er så - som et barns udvikling - at lære disse systemer til forstå det sprog, de nu kan genkende. "Dette menneske taler ord; disse er ordene "er langt fra," jeg forstår hvad dette menneske siger; lad mig hjælpe."
Og det videre skridt og udvikling kræver fortolkning af betyder: Imitere den måde, menneskets sind behandler verbal information på. Der er to dele til denne ligning. Den første er hensigten: Hvad er menneskets mål eller ønske om at tale denne sætning? En computer, der kan udtrække en hensigt fra en talt sætning, kan "forstå", at mennesket vil påvirke x eller interagere med y. Forvekslet med denne proces er anden del af ligningen: Entity. A.I. skal vide, hvordan man bestemmer den enhed, der behandles, målet om menneskets hensigt.
For at gøre det, er MindMeld ikke (som jeg formodede, eller håbede) at ansætte filosoffer. Det beskæftiger natursprogeksperter, men meget af A.I. "Learning" -processen er selv relativt praktisk. Hvis du lærer systemet at forstå kaffeordrer, skal du vise systemet alle de forskellige måder, som folk muligvis kan bestille kaffe.
"Jeg vil gerne have en mokka."
"Kan jeg have en kop joe?"
"Bare en stor kaffe til mig."
Og det er her, som de naturlige sprogeksperter - sprogkyndige - kommer ind. Men selv det er ikke længere nødvendigt, fordi vi kan crowdsource dataene. Disse værktøjer gør det muligt for dig at spørge tusindvis af mennesker det samme spørgsmål og kompilere deres svar. Så fodrer du bare svarene i A.I og voila: A.I. kan reagere på den brede vifte af mulige henvendelser. "Fra de tusindvis af forespørgsler kan vi nu bare i princip maskine lære, hvordan milliarder af andre forespørgsler kan genereres," siger Vasisht.
Inverse spurgte Vasisht, hvem har længe været insider i A.I. og naturligt sprogforståelse rige, at spekulere for os.
Kan MindMeld deltage i udvidet dialog? Hvis jeg for eksempel spørger et opfølgende spørgsmål, vil A.I. forstå og fortsæt med at reagere?
Ja. Det er en del af designet. Hvis nogen spørger et spørgsmål, der er ufuldstændigt - for eksempel hvis jeg bestiller kaffe, og jeg ikke angiver kaffens størrelse, vil jeg komme tilbage og sige: "Hvilken størrelse kaffe gør du vil have?"
Forventer du nogen fremskridt på Turing-testen?
Jeg synes, vi er smuk darn tæt på den. Jeg mener, IBM Watson gjorde det Jeopardy!, og jeg synes det var et rigtig godt eksempel. Vi er på det tidspunkt: Det bliver meget tæt. Ligesom nu, når det gælder talegenkendelse, er vi på det punkt, hvor maskiner er så gode som mennesker, tror jeg, vi vil - helt sikkert i de næste tre til fem år - være på et punkt, hvor de fleste af disse samtale stemmer systemer vil blive betragtet som værende så gode som mennesker.
Hvilke slags hjem automatisering ting gør MindMeld?
Vi kan anvende vores teknologi på enhver form for produkt, enhver form for service, enhver form for data domæne. Home automation er en af dem. Inden for hjemmet har du belysningskontrol, termostat, sikkerhedssystemer, lydsystemer, videosystemer, alle slags ting. Vi kan styre ethvert af de systemer, forudsat at der er den rette grænseflade.
Hvad ønsker du at kunne tilslutte sig MindMeld i dit eget hjem?
Jeg tror, at mere avancerede brugssager - som at tale med min Spotify for at sige "Play me the Rolling Stones playlist" eller "Spil mig klassisk musik i aften" - de slags ting ville være … awesome.
Noget mere uventet eller out-of-the-box, som du gerne vil kontrollere med din stemme?
De ting, jeg beskrev for dig, er de ting, jeg synes er nært forestående. Det vil med andre ord ske meget snart. Hvad der ikke vil ske med det samme tror jeg, ville være ting som mikrobølger, kaffemaskiner og køleskabe. At have disse slags apparater styres - så jeg kan stort set sige: "Er min kaffemaskine klar til at lave kaffe? Tænd kaffemaskinen "og hvis den ikke er blevet præget, skal den komme tilbage og sige" Undskyld, men din kaffemaskine er ikke klar "- den slags intelligens findes endnu ikke. Det vil være den hellige gral: Hvor stort set alle enheder kan tale tilbage til dig og fortælle hvad det kan og ikke kan gøre. Men vi er ikke helt der endnu.
Hvad tror du holder industrien tilbage?
Disse er ekstremt billige apparater, nu. Jeg mener, det er apparater, du kan købe til næsten ingenting. For ti år siden koster de meget mere.Så bygningen i nye funktioner er noget, der øger omkostningerne ved disse enheder. I sidste ende er nuværende værdi propositionen meget stærk; de fleste af disse producenter er ikke tilbøjelige til at tilføje nye funktioner, medmindre de er til en meget lav pris punkt.
Jeg synes det er et aspekt af det. Det andet aspekt af det er, vi taler om at have disse enheder tilsluttet. Så, der skal være mere end bare en voice-brug-sag for at forbinde disse enheder. Der skal være flere evner, der skal køre på den forbindelse, før de bliver levedygtige.
Kender du til noget firma, der arbejder på den sidstnævnte kapacitet?
Mange halvledervirksomheder arbejder på meget lave mikrofonarrayer. Den slags ting, som du grundlæggende kan indlejre - til meget lave omkostninger, på stort set enhver enhed eller applikation - der ville tillade, at der var taleindgang. Og du behøver ikke stå ved siden af disse enheder - du kan tale fra 10 meter væk. At opbygge den kapacitet - jeg tror det er udgangspunktet. Og jeg tror, at det vil lade folk begynde at lægge mikrofoner på enheder, og derefter den anden avancerede kapacitet vil følge. Men lige nu ved jeg ikke noget firma, der bygger denne slags en smart kaffemaskine, eller smart mikrobølgeovn eller vaskemaskine.
Hvad er dit bedste skøn for, når vi har helt smarte hjem, helt smarte lejligheder?
I dag har vi faktisk næsten alle de væsentlige delsystemer i huset, som folk ønsker automatiseret, som er i stand til at blive automatiseret. Dette omfatter lys, termostater, sikkerhedssystemer, garageporte, dørlåse - ting sådan. Alle disse ting kan gøres. Spørgsmålet er virkelig omkring prispunkter. Disse er stadig på det prispunkt, hvor det primært er tidlige adoptere og mennesker, der har et virkelig hårdt behov for dem. Men prispunkterne på disse ting falder dramatisk, meget hurtigt. Jeg tror, vi vil nok få disse delsystemer til massemarked i de næste par år.
De andre ting, jeg talte om - automatisering af de meget lave omkostninger apparater - jeg tror, at de sandsynligvis er i den fem til syv årige tidsramme tidligst. Mere som 10 år ud, før de bliver en realitet. Men som jeg sagde før, er det ting, der vil kræve en række andre ting at komme sammen. Og det kan ske hurtigere, hvis de forskellige ingredienser mesher sammen tidligere.
Hvad tror du, at en lejlighed i New York City eller San Francisco vil se ud i, sige 2050?
2050! Wow. Jeg tror vi vil være helt der. Den slags ting, vi ser i science-fiction-film - hvor du stort set kan tale med hvert system i dit hus og kontrollere alt med stemme - Jeg tror, at disse former for evner vil være udbredt. Bestemt i byer som New York og San Francisco.
En tredje af amerikanske lærere fortæller elevers klimaændring er naturlig, helt naturlig
En første-of-its kind undersøgelse har fundet afslag på menneskeskabte klimaændringer starter med lærere. Med titlen "Klimaforvirring blandt amerikanske lærere" og offentliggjort i dag i tidsskriftet Science, undersøgte undersøgelsen 1.500 lærere på mellem- og gymnasiet. Her er hvad de fandt: * 30 procent af lærerne fortæller eleverne ...
Obama på Panama Papers Data Dump: "Skat undgåelse er et stort globalt problem"
De såkaldte "Panama Papers" - en massiv lækage på 11,5 millioner filer, der viser, hvordan verdens ultra-rige og magtfulde skjuler deres formuer på offshore-konti - viser resultaterne af et ødelagt globalt problem, sagde præsident Barack Obama til journalister i dag . "I nyheden i løbet af de sidste par dage har vi haft en anden re ...
Du skulle sandsynligvis gå til tilståelse (selv hvis du ikke er katolsk)
Bekræftelse blandt andet forsoning a.k.a Sacrament of Penance a.k.a. noget, jeg ikke har gjort siden jeg var 11, er en stor aftale for katolikker og truende til ikke-katolikker. Den grundlæggende ide er, at du fortæller en præst om din synd i udsøgte detaljer i modsætning til en åndelig recept. Det er en underlig oplevelse ...