Till KTH:s startsida Till KTH:s startsida

Ändringar mellan två versioner

Här visas ändringar i "Elektro Media Open" mellan 2016-12-12 10:06 av Lars Filipsson och 2016-12-16 20:10 av Lars Filipsson.

Visa < föregående | nästa > ändring.

Elektro Media Open

Här nedan kommer material och information att läggas ut kontinuerligt under kursens gång för Elektro, Media och Open. Välkomna till första föreläsningen 31 oktober kl 10.15 i sal E1. Koden till filmerna i scalable learning är ZHTJG-98171 . Plan för föreläsningarna.

Modul 1 (31 oktober -- 4 november). Kapitel 1 i boken. Handlar om vektorer, skalärprodukt, kryssprodukt, projektioner, linjer och plan mm. Det är viktigt att man lär sig detta så bra att man utan svårighet kan lösa geometriska problem kring projektioner, linjer, plan, avstånd osv.

Föreläsning 1. Den 31 oktober. Vektorer. Kap 1.1-1.2.

Föreläsning 2. Den 2 november. Skalärprodukt och projektioner. Kap 1.3-1.4. Här är de två exempel jag inte hann gå igenom på föreläsningen idag. Frågeställningarna står i pdf:en till Föreläsning 2. Uppgift 1 och Uppgift 2.

Föreläsning 3. Den 4 november. Kryssprodukt. Kap 1.5.

Modul 2 (7 november -- 11 november). Kapitel 2 i boken. Handlar om lösning av linjära ekvationssystem med Gauss-Jordans metod. Det är viktigt att man lär sig detta mycket bra, för det är en grundläggande metod som kommer att användas om och om igen i kursen.

Föreläsning 4. Den 7 november. Linjära ekvationssystem. Kap 2.1.

Föreläsning 5. Den 9 november. Gauss-Jordans metod. Kap 2.2.

Föreläsning 6. Den 11 november. Vektorrum, delrum, Linjärt oberoende, bas, dimension. Kap 1.2 och 2.3.

Modul 3 (14 november -- 18 november). Kapitel 3 i boken. Handlar om matriser och linjära avbildningar. Detta är helt centralt i kursen och man måste satsa hårt för att lära sig detta. Huvudresultatet denna vecka är att alla linjära avbildningar från R^n till R^m ges av multiplikation med någon mxn-matris och kolonnerna i denna matris är bilderna av basvektorerna. Nollrum och bildrum till linjära avbildningar måste man veta vad det är och kunna ta fram baser för. Exempel på linjära avbildningar är projektioner, speglingar och rotationer. Mot slutet av veckan lär vi oss också inversa matriser och inversa avbildningar.

Föreläsning 7. Den 14 november. Matriser och linjära avbildningar. Kap 3.1-3.2.

Föreläsning 8. Den 16 november. Nollrum och bildrum. Kap 3.3-3.4.

Föreläsning 9. Den 18 november. Invers. Kap 3.5

Modul 4 (21 november -- 25 november). Kapitel 4 i boken. Handlar om allmänna vektorrum, koordinater och baser och basbyte. Det man måste få med sig denna vecka är hur man växlar mellan koordinaterna för en vektor i olika baser och vad som händer med matrisen för en linjär avbildning när man byter bas.

Föreläsning 10. Den 21 november. Koordinater i olika baser. Allmänna vektorrum. Kap 4.1-4.4

Föreläsning 11. Den 23 november. Matris för linjär avbildning i olika baser. Kap 4.5-4.6

Föreläsning 12. Den 25 november. Sammanfattning av kursen hittills.

Modul 5 (28 november -- 2 december). Kapitel 5 i boken, plus kapitel 6.1. Kapitel 5 handlar om determinanter: determinanten till en kvadratisk matris är ett tal som kodar information om matrisen. Speciellt intressant är om determinanten är noll eller inte. Determinanten är nollskild precis när matrisen är inverterbar. Det finns flera sätt att räkna ut determinanter. Man måste lära sig räkna ut determinanten till en matris och använda den för att dra slutsatser om matrisen och den linjära avbildning som matrisen representerar. Kapitel 6.1 handlar om egenvärden och egenvektorer. En egenvektor till en matris är en vektor som är sådan att matrisen gånger vektorn blir samma sak som ett tal gånger vektorn. Dvs även efter matrismultiplikationen ligger vi kvar på den linje vektorn spänner upp. Ett annat sätt att säga detta är att Av=kv för något tal k. I så fall är v egenvektor till A med egenvärde k.

Föreläsning 13. Den 28 november. Determinanter, kap 5. Protokoll från kursnämndsmöte 1

Föreläsning 14. Den 30 november. Determinanter forts, kap 5. Extra rekommenderade uppgifter från kap 5: kap 5.1 uppg A1, A2, A3, kap 5.2 uppg A1, A2, kap 5.4 uppg A1, A2, A3, A4, A5.

Föreläsning 15. Den 2 december. Egenvärden och egenvektorer, kap 6.1. Vi tjuvkikar även lite på diagonalisering av matriser i kap 6.2.

Modul 6 (5 december -- 9 december). Kapitel 6 och 7 i boken. Egenvärden och egenvektorer och diagonalisering av matriser i kapitel 6. Ortonormala baser, ortogonala matriser, Gram-Schmidts metod och minstakvadratmetoden i kapitel 7.

Föreläsning 16. Den 5 december. Egenvärden, egenvektorer och diagonalisering av matriser, kap 6.

Föreläsning 17. Den 7 december. Ortogonala och ortonormala baser, ortogonala matriser, Gram-Schmidts metod, kap 7.1-7.2

Föreläsning 18. Den 9 december. Minstakvadratmetoden, kap 7.3.

Modul 7 (12 december -- 16 december). Symmetriska matriser och diagonalisering av kvadratiska former.

Föreläsning 19. Den 12 december. Symmetriska matriser, "Principal axis theorem". Diagonalisering av kvadratiska former.

Här är en lista på några viktiga begrepp. Här en lite lös orientering om Fourierserier.