Fredag 24/5 (Gjennomgang av prøveeksamen) Vi avsluttet repetsisjon av del II med oppgave 11.1. om tensorprodukter. Deretter regnet vi oppgave1, 3, 5, 6, og 8 fra prøveeksamen. Dette var den siste forelesningen, men regneøvelsene går som planlagt frem til eksamen.
Tirsdag 21/5 (del II) Vi avsluttet repetisjon av del II med noen eksamensrelaterte eksempler, slik som hvordan vi regnet ut filterkoeffisientene til et produkt av to filtre. Deretter repeterte vi de grunnleggende tingene fra del II, slik som resolusjonsrom, detaljrom, skaleringsfunksjon, moderwavelet, og DWT og IDWT som koordinatskifter. Vi regnet en eksamensoppgave fra i fjor på hvordan man kan regne ut en DWT over 10 nivåer av en enkel vektor, og viste i en annen oppgave hvordan man kan regne ut waveletkoeffisientene til en funksjon. Vi avsluttet med å repetere tolkningen av wavelets ved hjelp av filtre (kap. 7), og vi viste hvordan vi kunne skrive opp de fire filtrene for Haar-waveleten, ut fra dennes koordinatskiftematrise. Neste gang starter vi med en enkel repetisjonsoppgave på tensorprodukter, før vi går gjennom løsningsforslaget for prøveeksamen.
Tirsdag 14/5 (del I) Vi startet med å repetere Fourierrekker og hvordan vi regner ut disse for enkle funksjoner. Deretter snakket vi litt om digital lyd, og definerte DFT og så på noen egenskaper ved denne, og hvordan vi kunne bruke den il å eksperimentere med lyd. Vi repeterte også filtre, kompakt filternotasjon for slike, sammenheng mellom DFT og frekvensrespons, høypass/lavpassfiltre og plotting av frekvensrespons. Vi avslutter repetsisjon av filtre neste gang, før vi fortsetter med repetisjon av del II.
Fredag 10/5 (del III) Vi repeterte det viktigste fra kap.3 - kap. 6 i del III ved å regne oppgaver. Vi begynner repetisjonen av del II først på tirsdag, og vi prøver å repetere fra del II også da. Hvis vi ikke kommer gjennom del III på tirsdag så kan vi sette opp en forelesning til uka etter.
Tirsdag 7/5 (Kap. 6) Vi avsluttet kapittel 6 med å se på algoritmer og noen matlabfunksjoner for barriermetoden, så på et eksempel der vi brukte barriermetoden numerisk, og ett der vi kunne løse for barriermetoden analytisk. Deretter gjorde vi Oppgave 7 i kap. 6, hvor vi også kunne løse for barriermetoden analytisk. Vi begynte deretter på repetisjon av del III med oppgave 1.9, og 2.12. Vi fortsetter med repetisjsoppgaver fra del III på fredag, og vil nok også gjøre en del annen repetisjon fra del I og del II da.
Fredag 3/5 (Kap. 6) Vi avsluttet kap.5 med å vise et siste resultat for karakterisering av minimum for konvekse funksjoner, og begynte deretter på kap. 6 med å generalisere Newtons metode til optimeringsproblemer med likhetsbetingelser. Deretter så vi på problemer med ulikhetsbetingelser, og definerte et optimeringsproblem uten slike betingelser (kalt barrierproblemet), der vi kvittet oss med ulikhetsbetingelsene ved å bake disse inn i en funksjon, kalt barrierfunksjonen. I barrierproblemet er det en ekstra parameter, og barrierproblemet blir mer og mer lik det opprinnelige problemet når denne parameteren går mot 0. Vi avsluttet med å vise at løsningen på barrierproblemet nærmer seg løsningen på det opprinnelige problemet når parameteren går mot 0. På tirsdag kommer vi til å avslutte kap. 6.
Tirsdag 30/4 (Kap. 5) Vi fortsatte med å regne et par siste, generelle eksempler der vi setter oopp og løser KKT-betingelsene for problemer med ulikhetsbetingelser. Deretter så vi på konveks optimering, der betingelsesfunksjonene er konvekse funksjoner. For slike problemer definerte vi et dualt problem, som går på å maksimere en annen funksjon, under litt andre betingelser. Vi forklarte hvorfor det duale problemet ofte kan brukes til å løse det opprinnelige problemet, og så på et eksempel. Neste gang tar vi et siste resultat fra kap. 5, før vi fortsetter med kap. 6.
Fredag 26/4 (Kap.5) Vi startet på kapittel 5, der vi først så på optimering med kun likhetsbetingeler. Resultatene her er ganske like de vi kjenner til fra MAT1110, men vi går lenger ved å skrive opp også andreordensbetingelser for å karakterisere minimum. Vi beviste resultatene ved å definere Lagrangefunksjonen, og relaterte det betingede problemet til et ubetinget problem ved hjelp av en såkalt penaltyfunksjon. Vi formulerte tilsvarende resultater for optimering med ulikhetsbetingelser, og det var her KKT-betingelsene dukket opp. Neste gang skal vi se på et par flere eksempler med KKT-betingelsene, før vi går løs på siste del av kap. 5 med konveks optimering.
Tirsdag 23/4 (Kap.4 i del 3) Vi gikk gjennom oppgave 7 i kapittel 4, som kanskje den vankeligste oppgaven i boka. Deretter fortsatte vi med å snakke om konvergens av linjesøkmetoder. Vi avsluttet kap. 4 ved å vise en generell setning for konvergens av Newtons metode for konvekse funksjoner. Neste gang runder vi av kapittel 4 ved å ta oppgave 5, før vi snakker om optimering med kun likhetsbetingelser i kap. 5.
Fredag 19/4 (Kap. 4 i del 3) Vi startet med oppgave 4 fra kapittel 3, før vi begynt på kapittel 4. Vi definerte førsteordens betingelser og andreordens betingelser for å finne minimum, og viste at disse var nødvendige og tilstrekkelige for de fleste funksjoner vi ser på. Deretter definerte vi linjesøkmetoder for å finne minimum. Viktige tilfeller av disse var steepest descent og Newtons metode. Vi forklarte også problemet med å velge steglengde i linjesøkmetoder, og forklarte Armijos regel for å finne en god steglengde. I oblig 3 skal dere bruke en eksisterende implementasjon av Newtons metode, og denne bruker Armijos regel for å finne en steglengde. Vi satser på å avslutte kapittel 4 på tirsdag. På tirsdag vil vi også regne noen flere av ukeoppgavene, blant annet oppgave 7 i kapittel 4.
Tirsdag 16/4 (Kap. 3 i del 3) Vi startet med å regne enda et par eksempler på minimering med ulikhetsbetingelser (KKT-betingelsene), og begynte deretter på Kapittel 3. Vi snakket om iterative metoder for å løse ikkelineære likninger, og definerte spesielt Newtons metode, og forklarte konvergenshastighet og når vi kan forvente at denne konvergerer. Newtons metode antar at vi vet Jacobimatrisen til funksjonen. Kvasi-Newton metoder går ut fra at vi ikke har uttrykk for denne, og tilnærmer den numerisk. Vi tok her for oss Broydens metode som et eksempel. Vi avsluttet med oppgave 3 fra kapittel 3. Neste gang vil vi starte med oppgave 4 fra kapittel 3, før vi fortsetter med Kap. 4og oppgaver derfra.
Fredag 12/4 (Kap. 2 i del 3) Vi begynte på kapittel 2 ved å definere konvekse mengder, og så på flere eksempler på slike. Deretter definerte vi konvekse funksjoner, med tilhørende eksempler. Vi så på egenskaper til konvekse funksjoner, slik som kontinuitet og sammensetning av konvekse/voksende funksjoner. Vi karakteriserte om funksjoner var konvekse ved hjelp av om Hessematrisen var positiv semidefinit. Vi så igjen på Seksjon 5.2, og viste et eksempel på oppsett av KKT betingelsene som er ganske nær til det dere støter på i oblig 3. Neste gang fortsetter vi på Kapittel 3, samt enda litt mer fra Seksjon 5.2.
Tirsdag 9/4 (Kap. 1 i del 3) Vi startet å snakke om ikkelineær optimering, og definerte den grunnleggende problemstillingen her. Vi så på noen eksempler hentet fra porteføljeforvaltning og maximum-likelihood estimering. Sistnevnte dukker opp i oblig 3. Vi repeterte noen eksempler på bruk av Lagranges metode, som er et sentralt verktøy i ikkelineær optimering, og snakket litt om hvordan denne kan generaliseres til også å omfatte ulikhetsbetingelser (dette er stoff fra Seksjon 5.2 i del 3, og som er tema i oblig 3). Vi repeterte også gradient, Hesse-matrise, og Jacobimatrise, og viste hvordan disse kan brukes til å analysere en funksjon lokalt, som å kategorisere maksimum/minimum. Neste gang fortsetter vi med å snakke om konveksitet, samt litt mer fra Seksjon 5.2.
Fredag 5/4 (Kap. 5-12) Vi rundet av teorien i Kapittel 12 ved å oppsummere og se på noen anvendelser på teorien om wavelets på bilder. Deretter oppsummerte jeg de viktigste tingene fra del II av kurset ved å nevne hva slags type oppgaver som er høyaktuelle som eksamensoppgaver. På tirsdag begynner vi på del III. Øyvind
Tirsdag 2/4 (Kap. 12) Vi definerte tensorprodukt av funksjoner og funksjonsrom, analogt til hvordan vi definerte tensorprodukter av vektorer i kap. 11. Vi studerte koordinatskifter mellom tensorprodukter av funksjonsrom, og så at disse kunne regnes ut med samme formel som vi brukte for koordinatskifter i kap. 11. Vi spesialiserte koordinatskiftene for tensorprodukter av funksjonsom til resolusjonsrommene V_m med tilhørende waveletbasiser, og tolket DWT på bilder som en oppsplitting av bildet i fire deler, der hver del har fått anvendt et høypass/lavpass-filter på søylene i bildet, og et høypass/lavpass-filter på radene i bildet. På fredag vil vi vise et par eksempler til på dette i forbindelse på bilder, før vi oppsummerer del 2 av kurset.
Fredag 15/3 Vi gikk gjennom Seksjon 11.2 i boka. Vi fortsetter over påske med kapittel 12.
Tirsdag 12/3 Vi gikk gjennom Seksjon 11.1 i boka.
Fredag 8/3 (Kap. 10) Vi startet med å regne et par eksamensrelevante oppgaver fra kap. 6, på hvordan man skriver opp filtrene for en wavelet, og en programmeringsrettet oppgave. Deretter gikk vi over til å snakke om bilder. Vi viste hvordan man kunne lese inn bilder i matlab, og hvordan man kunne gjøre enkle operasjoner på bilder, som det å trekke ut fargekomponentene i et bilde, konvertere et rgb-bilde til et gråtonebilde, lage negativen til et bilde, kontrastjustering, og hvordan vi kunne glatte ut eller partielt derivere et bilde ved hjelp av det vi kalte et computational molecule. Neste gang skal vi koble dette til det vi kaller for tensorprodukter.
Tirsdag 5/3 (Seksjon 6.2.4, 6.3) Vi motiverte dagens forelesning med å definere hva det vil si at en wavelet er "god". Dette skal bety at vi kan lage gode tilnærminger ved hjelp av wavelet-basisfunksjonene ved kun å bruke noen få av dem. Ved regning viste vi at dette er mulig for mange ganger deriverbare funksjoner når moderwaveletfunksjonen psi har det vi kaller for forsvinnende momenter. Den psi vi tidligere definerte for stykkevis lineære funksjoner viste seg å ikke ha noen forsvinnende momenter, men vi viste hvordan vi kunne modifisere denne til en ny psi med to forsvinnende momenter. Vi regnet ut de nye filtrene når vi bruker denne nye moderwaveleten, og så at G_1-filteret nå er et høypassfilter. Vi så også ved et par eksempler at den nye waveleten faktisk gir et mindre detaljbidrag i lyden, sammenlignet med hva vi hadde tidligere. Neste gang starter vi med et par ukeoppgaver om wavelets, før vi fortsetter på bilder.
Fredag 1/3 (Kapittel 7) Vi startet på kapittel 7 ved å repetere hvordan koordinatskiftematrisene så ut for de waveletene vi har sett på. Ved å stokke om på basisfunksjonene i phi_0 sum psi_0 basisen viste det seg at koordinatskiftematrisen ser ut nesten som et filter, med unntak av det er TO søyler som repeterer seg i matrisen. Denne observasjonen ga opphav til definisjonen av MRA-matriser, og hvordan vi kan definere to filtre H_0 og H_1 for å regne ut DWT, og to andre filtre G_0 og G_1 for å regne ut IDWT. Vi tolket disse filtrene som lavpass- og høypassfiltre, regnet ut disse filtrene for de waveletene vi har sett på, og tegnet frekvensresponsene for å verifisere lavpass/høypass-egenskapene. Vi beskrev implementasjoner av DWT og IDWT som baserte seg på disse filtrene, og testet de på lyd.
Tirsdag 26/2 (Seksjon 6.1-6.2) Vi avsluttet kapittel 5 ved å forklare hvordan en funksjon som representerer et bilde blir tilnærmet i V_m-rommene ved hjelp av samplene til funksjonen. Deretter begynte vi på kapittel 6, der vi brukte stykkevis lineære funksjoner til å tilnærme andre funksjoner. Dette ga opphav til en ny multiresolusjonsanalyse med en ny skaleringsfunksjon, der vi konstruerte feilrommene W_m på en litt annen måte enn ved å ta projeksjoner. Vi fikk også litt andre uttrykk for funksjonen psi, og litt andre uttrykk for koordinatskiftematrisene som ga opphav til DWT og IDWT. Vi så også på detaljdelene for forskjellige matematiske funksjoner etter en DWT, tilsvarende hva vi gjorde for stykkevis konstante funksjoner. Neste gang skal vi forklare hvordan vi kan implementere DWT og IDWT for generelle wavelets ved hjelp av filtre.
Fredag 22/2 (Seksjon 5.2-5.4) Vi fortsatte med å definere funksjoner som kan brukes til å lage ortonormale basiser for rommene V_m og W_m, og definerte DWT og IDWTsom koordinatskifter i disse rommene fra V_m til direktesummen av V_(m-1) og W_(m-1) og omvendt. I dette koordinatskiftet svarer koordinatene i V_(m-1) til en lavere oppløsningstilnærming av bildet, og koordinatene i W_(m-1) svarer til detaljene som skal til for å reprodusere bildet fra lavereoppløsningstilnærmingen. Vi så også på algoritmer for DWT og IDWT, og brukte disse til å høre på lavere oppløsningstilnærmingen til lyd, og de tilhørende detaljdelene. Neste gang begynner vi på kapittel 6, der vi skal gjøre det samme for stykkevis lineære funksjoner som vi nå har gjort for stykkevis konstante funksjoner.
Tirsdag 19/2 (Seksjon 5.1-5.2) Vi begynte på kapittel 5 med å forklare noen av svakhetene med Fourieranalyse. Wavelets forsøker å rette opp disse ved å tilnærme funksjoner ved hjelp av prototype-funksjoner som er begrenset i tid. Vi motiverte vår nye teori ut fra Google Earth-eksemplet i boka, der vi ville lett kunne finne et bilde med en høyere oppløsning ut fra en versjon av bildet med lavere oppløsning. Vi så på stykkevis konstante funksjoner som vår nye arena for tilnærming av funksjoner, og definerte en ortonormal basis av disse. Vi definerte resolusjonsrommene V_m, viste at disse var inkludert i hverandre, og avsluttet med å vise hvordan vi kunne regne ut projeksjonene fra V_1 ned i V_0, og ned i ortogonalkomplementet W_0. Neste gang fortsetter jeg fra proposisjon 5.13.
Fredag 15/2 (Seksjon 3.6 og Kap. 1-Kap. 4) Vi startet med Seksjon 3.6, der vi forklarte at filtre er det vi kaller tidsinvariante. Deretter repeterte vi stoff fra del I av kurset, og forklarte og gjennomgikk eksamensrelaterte oppgaver til dette. Fra Kapittel 1 konsentrerte vi oss om definisjon av Fourierrekker, samt utregning av en enkle Fourierrekker. Fra Kapittel 2 repeterte vi definisjonen av DFT, egenskaper ved DFT, og oppgaver på FFT. Fra Kapittel 3 så vi på hvordan vi kunne hoppe mellom matriserepresentasjonen for et filter, kompakt notasjon for filteret, og frekvensresponsen til filteret. Vi så også på plotting av frekvensrespons, hvordan vi kunne finne output fra et filter ved å splitte opp input i en sum av egenvektor, og hvordan man kan regne ut filterkoeffisientene i et produkt av to filtre. Neste gang begynner vi på wavelets i del II av kurset.
Tirsdag 12/2 (Seksjon 3.5) Vi definerte høypassfiltre og lavpassfiltre, og vi så at glidende middel-filteret vi avsluttet med sist gang er et eksempel på et lavpassfilter. Vi definerte så ideelle lavpassfiltre, som er lavpassfiltre som i tillegg nuller uten eller bevarer frekvensene eksakt (den generelle definisjonen av lavpassfiltre krever ikke dette). Vi regnet ut filterkoeffisientene i ideelle lavpassfiltre, og viste at disse filtrene ikke lar seg realisere med få filterkoeffisisenter. På grunn av dette tilnærmer man i MP3-standarden slike filtre med filtre med 512 koeffisisenter der frekvensresponsen har form nesten som et ideelt lavpassfilter, og vi spilte av lyd som er filtrert ved hjelp av filtrene fra MP3-standarden. Vi forklarte også hvorfor filtre der koeffisientene er fra rader i Pascals trekant kan brukes til å redusere bass i lyd, og forklarte også hvorfor det å legge på alternerende fortegn i filterkoeffisientene transformerer et filter fra et lavpassfilter til et høypassfilter. Neste gang tar vi 10 minutter fra Seksjon 3.6, og bruker resten av tiden på å summere opp hele del I av kurset med oppgaver og teori.
Fredag 8/2 (Seksjon 3.3-3.5) Vi Avsluttet Seksjon 3.3 med å regne ut og plotte noen enkle frekvensresponser, og vise noen egenskaper til den kontinuerlige frekvensresponsen. Vi brukte resultatet om at frekvensresponsen til et produkt er produktet av frekvensresponsene til å regne ut filterkoeffisientene til et produkt av filtre. I Seksjon 3.3 definerte vi en kompakt notasjon for filtre, og brukte denne på et par eksempler. Vi forklarte hva konvolusjon var, og forklarte hva Matlabs innebygde conv-funksjon gjør, og sammenhengen mellom denne og multiplikasjon av polynomer. Til slutt startet vi på noen av eksemplene på filtre i Seksjon 3.5, som tidsforsinkelsesfilteret, ekkofilteret, og glidende middel filtre. Neste gang skal vi se på resten av eksemplene på filtre i Seksjon 3.5.
Tirsdag 5/2 (Seksjon 3.2, 3.3) Vi fortsatte i seksjon 3.2 med å vise at filtre kommuterer, og at en matrise er et filter hvis og bare hvis den er en sirkulant Toeplitz matrise. Deretter viste vi at frekvensresponsen/egenverdiene til et filter alltid kan regnes ut med en DFT (slik at vi ikke trenger løse den karakteristiske likningen for å finne egenverdiene), og viste flere eksempler på hvordan dette kunne hjelpe oss i utregninger. Deretter definerte vi den kontinuerlig frekvensresponsen, som er det vi faktisk plotter når vi analyserer et filter. Vi viste at verdiene til vektor-frekvensresponsen alltid ligger på den kontinuerlige frekvensresponsen. Neste gang vil vi avslutte Seksjon 3.3, og fortsette med Seksjon 3.4 og 3.5.
Fredag 1/2 (Seksjon 2.9, 3.1, 3.2) Vi utledet FFT-algoritmen for å regne ut DFT, og formulerte denne som en matrisefaktorisering. Vi satt opp et tilsvarende resultat for IDFT. Vi regnet på hvor mange multiplikasjoner FFT-algoritmen krever, og fant at dette ga en betydelig reduksjon. Vi begynte deretter på Kapittel 3, der vi definerte operasjoner vi refererte til som filtre. Vi så at matrisene til disse operasjonene var sirkulante Toeplitz-matriser, og definerte filtre mer generelt ved hjelp av filterkoeffisienter. Vi viste metoden for å sette opp matrisen til et filter ut fra dens filterkoeffisienter. Til slutt tok vi den formelle definisjonen av filtre i Seksjon 3.2, og vi viste at dette medførte at alle filtre ortogonaldiagonaliseres av Fouriermatrisen. Vi kommer til å snakke om filtre på de tre neste forelesningene også.
Tirsdag 29/1 (Seksjon 2.4-2.6, 2.8) Vi fortsatte i seksjon 2.4 med å se på en enkel implementasjon av DFT, og beviste noen egenskaper ved DFT, som svarte til tilsvarende egenskaper for Fourierrekker. Vi fortsatte så i Seksjon 2.6 hvor vi forklarte hvilke DFT-indekser som svarer til høye og lave frekvenser, og så på et eksempel der vi eksperimenterer med lyd ved å nullstille DFT-koeffisienter som svarer til høye eller lave frekvenser. Dette er det første eksemplet på et digitalt filter, som vi skal definere neste gang. Deretter hoppet vi til Seksjon 2.5 hvor vi viste at vi kunne bruke DFT til å regne ut Fourierrekkkoeffisientene til funksjoner fra Fourierrommene. Nøkkelen her var å regne ut DFT på sampleverdiene til funksjonen. Denne oppskriften for å rekonstruere en funksjon ved å ta DFT på sampleverdiene ledet oss til samplingsteoremet i seksjon 2.8, som vi skrev opp. Neste gang begynner vi på FFT i Seksjon 2.9
Fredag 25/1 (Seksjon 1.7, 2.3, 2.4) Vi begynte med å se på noen kjente funksjoner og regnet ut deres Fourierrekker, og viste noen generelle egenskaper ved Fourierrekker. Deretter begynte vi på diskret Fourier analyse, der vi startet med de grunnleggende begrepene, som det nye indreproduktet, den diskrete Fourierbasisen, og ortogonalitet av denne. Deretter definer vi DFT, IDFT som koordinatskifter med Fouriermatrisen som tilhørende koordinatskiftematrise, samt Fourierkoeffisienter.Vi avsluttet med å regne ut DFT av sin/cos-type vektorer, samt DFT av den diskrete varianten av firkanten, som lignet mye på det vi fikk ved utregning av den kontinuerlige. Neste gang startet vi med å vise egenskaper ved DFT, før vi fortsetter med å eksperimentere med DFT på lyd.
Tirsdag 22/1 (Seksjon 1.4, 1.5, 1.6) Vi avsluttet Seksjon 1.4 ved å skrive opp Fourierrekka til trekantpulsen, og hørte på noen av Fourierapproksimasjonene. Deretter viste vi at Fourierrekkene til symmetriske/antisymmetriske funksjoner er cosinusrekker/sinusrekker, respektive, noe som stemmer overens med firkantpuls/trekantpulseksemplene. Vi fortsatte med å definere komplekse Fourierrekker, komplekse Fourierkoeffisienter, og kompleks Fourierbasis. Siden funksjonene nå er komplekse så måtte vi definere komplekse vektorrom og komplekse indreproduktrom, som kun har små forskjeller fra det reelle tilfellet. Vi viste at den deriverte til Fourierrekka er Fourierrekka til den deriverte, og forklarte hvorfor dette medfører at funksjoner som er mange ganger deriverbare, også har en raskt konvergerende Fourierrekke. Det at trekantpulsens Fourierrekke konvergerer raskere enn firkantpulsens kunne begrunnes ut fra dette. Dette ga oss en teknikk for å speede opp konvergensen til Fourierrekka til en funksjon der f(0) er forskjellige fra f(T), ved at man ser på en symmetrisk utvidelse av funksjonen. Neste gang begynner vi på Seksjon 1.7, og avslutter Kapittel 1 i første timen.
Fredag 18/1. (Seksjon 1.3, 1.4) Vi begynte på Sekjon 1.3 og definerte funksjonsrommene vi skal jobbe med med tilhørende indreprodukt, samt Fourierrommene, Fourierbasisen, Fourierrekker, og Fourierkoeffisisenter. Vi repeterte litt stoff fra MAT1120 på projeksjoner/minste kvadraters approksimasjon, viste at Fourierbasisen er ortogonal, og regnet ut Fourierkoeffisentene ved hjelp av den ortogonale dekomposisjonsformelen. Deretter regnet vi ut Fourierrekka til firkantpulsen, der vi så så at en ren tone med samme grunnfrekvens gir størst bidrag i denne. Etter hvert som vi øker antall ledd i Fourierrekken høres den mer og mer ut som firkantpulsen, noe som bekrefter et resultat vi skrev opp om at for de fleste funksjoner så vil Fourierrekka konvergere mot funksjonen selv. Neste gang vil vi gjenta dette eksperimentet for trekantpulsen, før vi avslutter seksjon 1.4 ved å se på når Fourierrekka er en ren cosinusrekke, og når den er en ren sinusrekke.
Tirsdag 15/1. (Seksjon 1.1, 1.2, 2.2) Vi ga en intro til kurset, og begynte på kapittel 1 med litt overordnet stoff om hva lyd er. Lyd svarer til variasjoner i lufttrykk, og man bruker Pascal og decibel som måleenheter for lyd. Vi forklarte at mennesker bare klarer oppfatte lyder der variasjonene har bestemte hyppigheter. Vi definerte ut fra dette hva vi mener med frekvens og rene toner, og demonstrerte i matlab hvilke frekvenser vi kan høre. Vi så også på firkantpulsen og trekantpulsen, som er to andre typer lyder enn de rene tonene. Vi forklarte at Fourier-analyse dreier seg om å skrive lyder som en sum av rene toner. Vi demonstrerte også en del forskjellige operasjoner på lyd i matlab, samt hvordan vi kan lese inn og generere egne lyder i matlab. For ukeoppgavene til neste uke trenger dere se spesielt gjennom eksemplene i slutten av seksjon 2.2.