1. februar: Spr?kmaskinen

Foredrag ved Jan Tore Lønning, forskningsgruppen for logikk og naturlig språk.

Jan Tore Lønning

Kort om foredraget:

Tittelen språkmaskinen har en dobbel mening: (i) mennesket og (ii) datamaskinen. Språk er helt avgjørende for mennesket som art og muliggjør kommunikasjon. Med skriftspråket fikk vi muligheter for lagring av informasjon. Tallsystemer som oppsto på samme tid ga oss muligheter for bearbeiding av informasjon. Leibniz hadde ideen om mekanisk symbolmanipulering. Litt om Turing og om ideen om kunstig intelligens, sammenheng språk og intelligens.

Språkteknologi er mer enn kunstig intelligens. En stor del av de data vi har lagret er i form av tekster. Resten av forelesningen, hoveddelen, vil ta for seg noen eksempler og metoder i litt mer detalj:

  1. Stavesjekking ala Norvig. Dette illustrerer sammenheng mellom regler og statistikk.
  2. Talegjenkjenning. Bygger på samme modell som stavesjekking.
  3. Statistisk basert maskinoversettelse a la Google. Forklare hvordan den virker. Se på svakheter og hvordan det trengs lingvistisk innsikt for å rette på disse.
  4. Informasjonsøking og målet om innholdsbaserte søk.

 

Oppsummering skrevet av Morten Dæhlen:

Den “første” språkmaskinen er mennesket selv, og det var ikke nok med Adam.  Språk handler om kommunikasjon og det må minst være to personer tilstede før det blir et språk. Også Eva måtte være tilstede! Forskerne er uenig om når språket oppstod, og om det var en langsom eller rask prosess. Tidspunktet for når det oppsto varierer fra 2.5 mill år siden og til 60-70 000 år siden. I motsetning til talespråket er skriftspråket en oppfinnelse, det første skriftspråket (kileskrift) oppsto for omlag 5000 år siden.

Den “andre” språkmaskinen er datamaskinen. Denne delen av historien starter med Gottfrid Leibniz (1646-1716) som drømte om et universelt språk (characteristica universalis) som kunne brukes til å representere og regne på all menneskelig kunnskap. En annen viktig person i utviklingen av datamaskinen som språkmaskin var Alan Turing (1912-1954). I tillegg til en rekke andre bidrag i informatikkens historie var Turing opptatt av datamaskinens evne til representere (og regne på) språklige fenomener. Han definerte fagfeltet kunstig intelligens, dvs. at han tenke at maskinen gjennom et antall vel definerte regler kunne programmeres slik at den kunne resonere som et menneske. For å gjøre dette måtte datamaskinen kunne håndtere vårt (naturlige) språk. Ingen intelligens uten språk! En tredje viktig person fra denne historien var logikeren Kurt Gödel (1906-1978) og hans setninger (teoremer) om ufullstendighet som sier noe i retning av at dersom et system er konsistent er det ikke komplett. Av dette kan man utlede at det er grenser for hva maskiner kan gjøre!

Allerede i datamaskinen barndom (rundt og etter andre verdenskrig) var det klart at datamaskinen kunne gjøre ting vi mennesker ikke maktet, som f.eks å regne betydelig raskere enn oss. Men kunne man forvente at disse maskinene ville kunne resonere og “tenke”? I 1997 kom maskin Deep Blue som slo sjakkfenomenet og verdensmester Garri Kasparov, og 14. februar 2011 (om snaut to uker) skal IBM lansere Watson – en maskin som skal spille Jeopardy mot mennesker og kanskje vinne – hver gang!!!!

Fagfeltet vi her snakker om handler om en kombinasjon av lingvistikk (studiet av vårt naturlige språk og tale) og informatikk, og begreper som datalingvistikk, språkprosessering og språkteknologi brukes for å beskrive feltet. Kjent for de fleste er

  • stavesjekking, som man finner i redigeringsverktøy som Word og når du skriver tekstmeldinger på mobilen. En stavesjekker kan finne feil, men den også slå opp i en ordliste og foreslå alternativer til det du skriver.
  • søk et ord og uttrykk gjør vi hver eneste dag ved hjelp av verktøy som Google og Bing.
  • de fleste har opplevd systemer som gjenkjenner tale og svarer ved hjelp av å sette sammen lyder til ord og uttrykk (talesyntese). Håndballforbundets resultattelefon er et system med talesyntese.
  • oversettelse av ord, og setninger kommer stadig mer i bruk og du kan f.eks. teste Googles system for oversettelse. Dette systemet er basert på statistiske metoder og gjør en rimelig god jobb, særlig i forhold til oversettelse til og fra engelsk.

Dette, og mer til, har kommet som et resultat av forskning innen språkteknologi.

Den store utfordringen i språkteknologi, både tekst og tale, er å håndtere flertydighet. Lønning brukte følgende eksempel: “I shot an elephant in my pajamas in India” forstår vi som at jeg skjøt en elefant i India og at jeg var iført min pyjamas mens jeg gjorde dette. Det betyr ikke at elefanten befant seg i min pyjamas i India! Dette forstår vi i vårt hode, men det er ikke like enkelt for en maskin å forstå dette uten at systemet tilføres mer språklig “intelligens”. Flertydighet blir enda mer komplisert når man skal tolke og oversette tale. Her vil ulike dialekter, utydelig uttale av enkeltlyder og bakgrunnsstøy bidra til å komplisere bildet.

Innen språkteknologi ved Institutt for informatikk arbeides det med metoder som kombinerer statistiske metoder for oversettelse (brukes bl.a. av Google) og lingvistiske metoder der oppgaven er “hente” grammatikken ut av setningene. Dette betyr bl.a. at man kan få tak i flertydighet og basert på læring og statistiske metoder velge den betydningen av setningen som er mest sannsynlig.

Det neste skrittet er å sette sammen hele tekster og hente ut meningen i det som står i teksten. Vil det noen gang være mulig for en maskin  å lese “Frelseren” av Jo Nesbø, og gi meg et kortfattet, men fortsatt spennende resymé av Harry Holes jakt på morderen til Robert Karlsen?

Emneord: lingvistikk, spr?kteknologi
Publisert 1. mars 2011 10:16 - Sist endret 7. feb. 2020 16:00

Logg inn for ? kommentere

Ikke UiO- eller Feide-bruker?
Opprett en WebID-bruker for ? kommentere