Ну что, начнем? :)
Вспоминать забытое оказалось совсем не легко...
Две нерешенные задачки пока что.
1) Даны квадратные матрицы А и B, известно что A=I-AB.
Трябва доказать, что B3=0 iff А=I-B+B2.
Как вообще к этому подходить? Просто крутить пока че-нить не выйдет?..
2) Даны квадратные матрицы А и В, нужно доказать, что если AB-I невырожденная матрица, то BA-I тоже невырождена.
Особенно тяжело вспомнить какие свойства относятся ко всем матрицам, а какие к регулярным...
Цитата: RawonaM от февраля 24, 2011, 22:03
Ну что, начнем? :)
Начнём, пожалуй!
Цитата: RawonaM от февраля 24, 2011, 22:03
Как вообще к этому подходить? Просто крутить пока че-нить не выйдет?..
В принципе, да. Это задачи, скорее, на абстрактную алгебру: то, что матрицы — это таблицы с числами, никак не используется, а важны только алгебраические операции и их свойства. Когда надоест крутить, читайте спойлер. :)
⇒
A = I - AB
AB = B - AB2
AB2 = B2 - AB3 = B2
A = I - AB = I - (B - AB2) = I - B + AB2 = I - B + B2 q. e. d.
⇐
A = I - B + B2
B2 = A + B - I
B3 = AB + B2 - B = (I - A) + (A + B - I) - B = 0 q. e. d.
Цитата: RawonaM от февраля 24, 2011, 22:03
Особенно тяжело вспомнить какие свойства относятся ко всем матрицам, а какие к регулярным...
Это какие такие «регулярные»? Мне кажется, со свойствами там несложно.
Цитата: Квас от февраля 24, 2011, 22:33
Это задачи, скорее, на абстрактную алгебру: то, что матрицы — это таблицы с числами, никак не используется, а важны только алгебраические операции и их свойства.
Да, но для матриц они же определены не так, как для чисел.
Цитата: Квас от февраля 24, 2011, 22:33
ЦитироватьОсобенно тяжело вспомнить какие свойства относятся ко всем матрицам, а какие к регулярным...
Это какие такие «регулярные»? Мне кажется, со свойствами там несложно.
Регулярные — это невырожденые. :) Ну надо помнить например, что для регулярных матриц умножение коммутативно, а для других нет, да и каждое действие помнить. Например, ассоциативность — для регулярных или для всех? По-моему для всех.
Цитата: RawonaM от февраля 24, 2011, 23:01
Регулярные — это невырожденые. ... для регулярных матриц умножение коммутативно...
Для невырожденных матриц умножение некоммутативно.
Дейвтительно. Я похоже имел в виду, что если А невырождена и AB=I, то BA=I.
Появился вопрос, чисто глубоко-теоретический.
Каково отношение линейного пространтва и поля, над которым оно строится?..
Ничего не пойму. Почему R пространство над Q?!! :what:
Цитата: RawonaM от февраля 25, 2011, 20:58
Появился вопрос, чисто глубоко-теоретический.
Каково отношение линейного пространтва и поля, над которым оно строится?..
Глубоко-теоретический ответ: теоретико-категорное!
А можете пояснить вопрос?
Цитата: RawonaM от февраля 25, 2011, 20:58
Почему R пространство над Q?!! :what:
На R определены операции сложения и умножения на элементы Q, аксиомы линейного пространства выполнены, поэтому это линейное пространство. Бесконечномерное, кстати.
Цитата: Квас от февраля 25, 2011, 21:05
ЦитироватьПочему R пространство над Q?!! :what:
На R определены операции сложения и умножения на элементы Q, аксиомы линейного пространства выполнены, поэтому это линейное пространство. Бесконечномерное, кстати.
Почему же оно бесконечномерное? Совсем запутали. Я так понимаю, что R над R — одномерное пространство. R^2 над R — двухмерное.
Цитата: Квас от февраля 25, 2011, 21:05
Цитировать
Каково отношение линейного пространтва и поля, над которым оно строится?..
Глубоко-теоретический ответ: теоретико-категорное!
А можете пояснить вопрос?
Наверное не могу. Ну я бы ожидал услышать что-то типа такого: поле — это то, откуда берутся элементы векторов. :donno: Надо наверное просто дальше читать, потом утрясется.
Цитата: RawonaM от февраля 24, 2011, 23:01
Цитата: Квас от Вчера в 23:33ЦитироватьЭто задачи, скорее, на абстрактную алгебру: то, что матрицы — это таблицы с числами, никак не используется, а важны только алгебраические операции и их свойства.
Да, но для матриц они же определены не так, как для чисел.
Существуют самые разные математические структуры, на которых определены бинарные операции. Абстрактная алгебра изучает бинарные операции вне зависимости от природы объектов, интересуясь только свойствами операций. Удивительно, что операции с объектами самой разной природы часто имеют схожие свойства.
По сложению матрицы фиксированного размера образуют абелеву группу:
1) Ассоциативность: (A + B) + C = A + (B + C)
2) Существование нейтрального элемента: A + 0 = A = 0 + A
3) Существование обратного элемента: A + (- A) = 0 = (-A) + A
4) Коммутативность: A + B = B + A
Самое главное из этих свойств — ассоциативность. Она имеет место во всех приличных алгебраических структурах. Неассоциативная алгебра — это уже круто.
Первые три свойства — аксиомы группы. Группы — самые «хорошие» объекты с одной операцией. А если есть и коммутативность (тогда группа называется абелевой), то вообще праздник.
Короче говоря, сложение матриц обладает в точности теми же свойствами, что сложение чисел.
С умножением похуже. Предположим, что рассматриваем квадратные матрицы фиксированного порядка. Тогда
1) Ассоциативность: (AB)C = A(BC)
2) Существование нейтрального элемента: AI = A = IA
И всё... Это не группа, а всего-навсего моноид (два свойства выше и определяют моноид). Впрочем, умножение чисел только чуть лучше: оно коммутативно. Умножение же матриц порядка >= 2 некоммутативно (хотя, конечно, можно привести примеры коммутирующих матриц, то есть таких, что AB = BA).
Значит: умножение матриц отличается от умножения чисел только отсутствием коммутативности.
У матриц есть замечательное свойство, которое вы уже писали: если AB = I, то матрицы A и B обратимы и являются обратными друг для друга. Для произвольных моноидов это неверно.
Напомню ещё, что матрица обратима тогда и только тогда, когда она невырожденна, то есть её определитель отличен от 0. Конечно, это уже не абстрактная алгебра.
Операции сложения и умножения
связаны законами дистрибутивности:
(A + B)C = AC + BC
A(B + C) = AB + AC
То же, что и у чисел, только в двух формах из-за некоммутативности умножения. Благодаря дистрибутивности квадратные матрицы образуют
кольцо с единицей. Значение дистрибутивности трудно переоценить: благодаря ей мы имеем не две независимые алгебраические структуры, которые «ничего не знают» друг о друге, а одну более сложную структуру — кольцо.
Для неквадратных матриц умножение обладает теми же свойствами (если произведения определены). Конечно, говорить об обратной матрице для них не имеет смысла.
Цитата: RawonaM от февраля 25, 2011, 21:13
Наверное не могу. Ну я бы ожидал услышать что-то типа такого: поле — это то, откуда берутся элементы векторов. :donno: Надо наверное просто дальше читать, потом утрясется.
Нет-нет! Поле само по себе, векторы сами по себе. Связь та, что векторы
можно умножать на скаляры (конечно, нужно, чтобы свойства выполнялись, но это в большинстве случаев очевидно). Если элементы множества можно складывать и умножать на числа — считайте, что линейное пространство имеется. Например, непрерывные на [a,b] функции можно складывать (поточечно: (x + y)(t) = x(t) + y(t)) и умножать на числа (тоже поточечно: (сx)(t) = сx(t)), свойства выполнены, voilà : C[a,b] — линейное пространство непрерывных функций.
Цитата: RawonaM от февраля 25, 2011, 21:13
Почему же оно бесконечномерное? Совсем запутали. Я так понимаю, что R над R — одномерное пространство. R^2 над R — двухмерное.
Absolument. А R над Q бесконечномерное. ;D Это значит, что существуют линейно независимые системы из любого числа векторов. Ладно, предлагаю пока отложить вопрос о размерности этого пространства. :)
Был бы сканер под рукой, я бы вам методичек отсканировал... У нас были классные методички по алгебре. Надо у студентов поспрошать, может есть у кого в электронном виде.
Цитата: Квас от февраля 25, 2011, 21:29
ЦитироватьНаверное не могу. Ну я бы ожидал услышать что-то типа такого: поле — это то, откуда берутся элементы векторов. :donno: Надо наверное просто дальше читать, потом утрясется.
Нет-нет! Поле само по себе, векторы сами по себе. Связь та, что векторы можно умножать на скаляры (конечно, нужно, чтобы свойства выполнялись, но это в большинстве случаев очевидно).
То есть, единственная связь между полем и пространством — это то, что скаляры берутся из поля? Получается, что любое поле — пространство над неким другим полем, если определено умножение элементов этих полей?
Цитата: Квас от февраля 25, 2011, 21:31
Был бы сканер под рукой, я бы вам методичек отсканировал... У нас были классные методички по алгебре. Надо у студентов поспрошать, может есть у кого в электронном виде.
А фотика нету?
У меня есть книга "Линейная алгебра и аналитическая геометрия", Ильин и Ким, МГУ. Это годный учебник?
Цитата: RawonaM от февраля 25, 2011, 21:41
То есть, единственная связь между полем и пространством — это то, что скаляры берутся из поля?
Ага.
Цитата: RawonaM от февраля 25, 2011, 21:41
Получается, что любое поле — пространство над неким другим полем, если определено умножение элементов этих полей?
Ну да, если свойства выполнены. При этом об умножении в том поле, которое векторы, надо забыть: в линейном пространстве две операции.
Например, поле является линейным пространством над любым своим подполем.
Цитата: RawonaM от февраля 25, 2011, 21:42
"Линейная алгебра и аналитическая геометрия", Ильин и Ким, МГУ.
Не читал.
Годный учебник — это трёхтомник Кострикина, но это многовато даже для студента — математика. Хотя его древнее издание было однотомным... Что там ещё по алгебре? :-\ Я-то учил по методичкам, а потом по Кострикину. Учебников-то много, да боишься предлагать, что сам не знаешь. Я посоображаю ещё.
Цитата: RawonaM от февраля 25, 2011, 21:42
А фотика нету?
Надо попробовать.
А может быть пространтво, которое не поле?
Т.е., определение пространства от поля отличается только тем, что в пространстве вместо умножения между своими собственными элементами требуется умножение между элементом и скаляром. Является ли второе достаточным условием для первого?
Цитата: RawonaM от февраля 25, 2011, 21:56
А может быть пространтво, которое не поле?
Конечно, они все, как правило, и не являются полями. Например,
![\mathbb R^2 [tex]\mathbb R^2[/tex]](https://latex.codecogs.com/png.latex?\mathbb R^2)
или вообще
![\mathbb R^n [tex]\mathbb R^n[/tex]](https://latex.codecogs.com/png.latex?\mathbb R^n)
.
Цитата: RawonaM от февраля 25, 2011, 21:56
Т.е., определение пространства от поля отличается только тем, что в пространстве вместо умножения между своими собственными элементами требуется умножение между элементом и скаляром.
Именно так. Ну и свойства, конечно, разные требуются. Например, в поле каждый ненулевой элемент должен обладать обратным, а в аксиомах линейного пространства это не имеет аналога.
Цитата: RawonaM от февраля 25, 2011, 21:56
Является ли второе достаточным условием для первого?
Не является. Более того, если элементы линейного пространства можно умножать друг на друга (получая элементы этого же пространства), и если это умножение определённым образом согласовано с линейной структурой, то такой объект имеет специальное название —
алгебра. Классический пример — алгебра квадратных матриц.
Цитата: RawonaM от февраля 25, 2011, 10:18
Дейвтительно. Я похоже имел в виду, что если А невырождена и AB=I, то BA=I.
Я вот тут глянул... а может быть что А и В вырождены и АВ=I?
Цитата: RawonaM от февраля 25, 2011, 22:08
Цитата: RawonaM от Сегодня в 11:18ЦитироватьДейвтительно. Я похоже имел в виду, что если А невырождена и AB=I, то BA=I.
Я вот тут глянул... а может быть что А и В вырождены и АВ=I?
Не может. Виноват определитель.
1 = det I = det AB = det A det B.
Цитата: Квас от февраля 25, 2011, 22:06
ЦитироватьЯвляется ли второе достаточным условием для первого?
Не является. Более того, если элементы линейного пространства можно умножать друг на друга (получая элементы этого же пространства), и если это умножение определённым образом согласовано с линейной структурой, то такой объект имеет специальное название — алгебра. Классический пример — алгебра квадратных матриц.
Алгебра — это гибрид пространтсва и поля?.. :what:
Цитата: Квас от февраля 25, 2011, 22:10
ЦитироватьЦитироватьДейвтительно. Я похоже имел в виду, что если А невырождена и AB=I, то BA=I.
Я вот тут глянул... а может быть что А и В вырождены и АВ=I?
Не может. Виноват определитель.
1 = det I = det AB = det A det B.
Ага, спасибо. Я пытался это понять с другой стороны. Если умножение слева на обратимую матрицу эквивалентно совершению элементарных операций над строками... А если на необратимую, то непонятно. Запутался короче :)
Цитата: RawonaM от февраля 25, 2011, 22:14
Если умножение слева на обратимую матрицу эквивалентно совершению элементарных операций над строками... А если на необратимую, то непонятно. Запутался короче :)
Мне кажется, что в принципе это решение можно добить до конца.
Методички завтра при дневном свете пофоткаю.
Спасибо, благодаря вам мне стало понятно все это дело. :) Пока что понятно ;D
Линейная алгебра — классная наука. Помню студенческие впечатления: либо ничего не понятно, либо всё очевидно. Третьего не дано. :) Моя любовь, вообще-то... Ну и из-за преподавателя, конечно. Я у него потом диплом писал.
Мне больше нравится, чем инфи :) Я почему-то с самого начала инфи не взлюбил. Ну чуть-чуть так не взлюбил, все-таки математика это одна из моих страстей с детства, но как-то получилось так, что по стечению обстоятельство другая страсть победила... :)
Цитата: RawonaM от февраля 25, 2011, 21:42
У меня есть книга "Линейная алгебра и аналитическая геометрия", Ильин и Ким, МГУ. Это годный учебник?
этот учебник ишь зэр гуэт.
Цитата: taqseem от февраля 26, 2011, 13:13
этот учебник ишь зэр гуэт.
Мерси, буду знать :)
Линейная алгебра 1. (http://depositfiles.com/files/51eui2nax)
Как скажете, читать можно?
Линейная алгебра у нас была во втором семестре. Всего шесть методичек: линейные пространства; линейные операторы; жорданова форма; пространства со скалярным произведением; квадратичные формы; аффинные пространства. Из алгебры первого семестра ещё важная методичка о линейных системах и матрицах. (Самой первой методички о линейных системах у меня нет, к сожалению.)
Методички великолепные, больше в студенческой жизни с такими не сталкивался.
Цитата: Квас от февраля 26, 2011, 16:24
Линейная алгебра 1.
Как скажете, читать можно?
Как скачаю, скажу :) Пока что с двух попыток ни хрена не вышло, и ждать долго надо :(
Может адблок выключить, без него не работает?..
Могу ещё куда-нибудь залить, только скажите, куда.
Скачал, щас буду смотреть :)
Какая лохматая брошюрка лохматых годов :)
Видно хорошо, читать можно. Спасибо! :)
Да я один раз заикнулся, что у меня методичек нет, он мне отдал все, какие под рукой были. А были эти. :)
Короче, буду дальше фоткать. ;up:
Я не уверен, что мне на данном этапе все нужны.
жорданова форма - такого вроде у нас нет
пространства со скалярным произведением - чем отличается от линейных пространств?
квадратичные формы - тоже не видно
аффинные пространства - это что?
После пространств у меня идут трансформации, потом айгензначения и оклидово пространство и все вроде.
Поле комплексных чисел еще подробно рассматривалось.
Цитата: RawonaM от февраля 26, 2011, 16:57
После пространств у меня идут трансформации, потом айгензначения и оклидово пространство и все вроде.
Всё понятно. То есть вам три методички хватит тогда из линейной алгебры. Плюс матрицы, плюс комплексные числа.
Да, похоже так.
RawonaM, вы вот не говорите, откуда скачивать лучше, и я вторую залил на депозитфайлз. Решайтесь же!
Линейные системы и матрицы. (http://depositfiles.com/files/475bxhf65)
Строго говоря, это ещё не линейная алгебра, но, во-первых, это фундамент, на котором стоит линейная алгебра, а во-вторых, здесь уже вовсю работают разные идеи из ЛА.
Цитата: Квас от февраля 26, 2011, 17:27
RawonaM, вы вот не говорите, откуда скачивать лучше, и я вторую залил на депозитфайлз. Решайтесь же!
Да вроде качается ничего с дипозита, так что нормально :)
Как доказать: adj(A-1)=(adjA)-1 ?
Прочитал «как сказать». ;D
Цитата: RawonaM от февраля 27, 2011, 10:43
Как доказать: adj(A-1)=(adjA)-1 ?
Свойства присоединённых матриц просто доказываются в случае невырожденных матриц, когда можно пользоваться формулой для обратной. Собственно, с помощью этой формулы и доказывается.
Присоединённую обозначаю по своему обыкновению тильдой.
Формула для обратной матрицы:
![A^{-1} = \frac1{\det A} \widetilde A^{\mathsf T} [tex]A^{-1} = \frac1{\det A} \widetilde A^{\mathsf T}[/tex]](https://latex.codecogs.com/png.latex?A^{-1} = \frac1{\det A} \widetilde A^{\mathsf T})
отсюда
![\widetilde A = \det A (A^{-1}) ^{\mathsf T} [tex]\widetilde A = \det A (A^{-1}) ^{\mathsf T}[/tex]](https://latex.codecogs.com/png.latex?\widetilde A = \det A (A^{-1}) ^{\mathsf T})
Подставляя сюда
![A^{-1} [tex]A^{-1}[/tex]](https://latex.codecogs.com/png.latex?A^{-1})
вместо A, получаем:
![\widetilde {A^{-1}} = \det A^{-1} ( (A^{-1})^{-1} )^{\mathsf T} = \frac1{\det A} A^{\mathsf T} \qquad (1) [tex] \widetilde {A^{-1}} = \det A^{-1} ( (A^{-1})^{-1} )^{\mathsf T} = \frac1{\det A} A^{\mathsf T} \qquad (1)[/tex]](https://latex.codecogs.com/png.latex? \widetilde {A^{-1}} = \det A^{-1} ( (A^{-1})^{-1} )^{\mathsf T} = \frac1{\det A} A^{\mathsf T} \qquad (1))
С другой стороны,
![\widetilde A^{-1} = \left( \det A (A^{-1}) ^{\mathsf T} \right)^{-1} = \frac 1{\det A }((A^{-1})^{-1}) ^{\mathsf T} = \frac1{\det A} A^{\mathsf T} \qquad (2) [tex] \widetilde A^{-1} = \left( \det A (A^{-1}) ^{\mathsf T} \right)^{-1} = \frac 1{\det A }((A^{-1})^{-1}) ^{\mathsf T} = \frac1{\det A} A^{\mathsf T} \qquad (2)[/tex]](https://latex.codecogs.com/png.latex? \widetilde A^{-1} = \left( \det A (A^{-1}) ^{\mathsf T} \right)^{-1} = \frac 1{\det A }((A^{-1})^{-1}) ^{\mathsf T} = \frac1{\det A} A^{\mathsf T} \qquad (2))
Сравнивая (1) и (2), получаем требуемое.
При выводе (2) мы воспользовались свойством
![(aA)^{-1} = \frac 1a A^{-1}, [tex] (aA)^{-1} = \frac 1a A^{-1},[/tex]](https://latex.codecogs.com/png.latex? (aA)^{-1} = \frac 1a A^{-1},)
следующем из очевидного тождества
![(aA) \left( \frac 1a A^{-1} \right ) = I, [tex] (aA) \left( \frac 1a A^{-1} \right ) = I, [/tex]](https://latex.codecogs.com/png.latex? (aA) \left( \frac 1a A^{-1} \right ) = I, )
и свойством
![(A^{\mathsf T})^{-1} = (A^{-1})^{\mathsf T} , [tex] (A^{\mathsf T})^{-1} = (A^{-1})^{\mathsf T} ,[/tex]](https://latex.codecogs.com/png.latex? (A^{\mathsf T})^{-1} = (A^{-1})^{\mathsf T} ,)
которое доказывается следующей выкладкой:
![A^{\mathsf T} (A^{-1})^{\mathsf T} =(A^{-1} A)^{\mathsf T} = I^{\mathsf T} =I [tex] A^{\mathsf T} (A^{-1})^{\mathsf T} =(A^{-1} A)^{\mathsf T} = I^{\mathsf T} =I [/tex]](https://latex.codecogs.com/png.latex? A^{\mathsf T} (A^{-1})^{\mathsf T} =(A^{-1} A)^{\mathsf T} = I^{\mathsf T} =I )
(свойство
![(AB)^{\mathsf T} = B^{\mathsf T} A^{\mathsf T} [tex] (AB)^{\mathsf T} = B^{\mathsf T} A^{\mathsf T} [/tex]](https://latex.codecogs.com/png.latex? (AB)^{\mathsf T} = B^{\mathsf T} A^{\mathsf T} )
предполагаю известным).
(http://img3.nnm.ru/imagez/gallery/b/b/9/e/c/bb9ec906eb260dd6199f707b2aadc257_full.jpg)
Цитата: Квас от февраля 27, 2011, 18:04
Свойства присоединённых матриц просто доказываются в случае невырожденных матриц, когда можно пользоваться формулой для обратной. Собственно, с помощью этой формулы и доказывается.
Ага, понятно, мерси. По каким-то причинам в этом семесте написано, что на экзамен присоединенные матрицы знать не обязательно. Вроде как бы все просто, да и может быть полезно.
Что-то я с комплексными числами не пойму. Как решать типа
![Re\frac{2i+3}{3-4i} [tex]Re\frac{2i+3}{3-4i}[/tex]](https://latex.codecogs.com/png.latex?Re\frac{2i+3}{3-4i})
? Я так думал, что нужно подомножить верх и низ на что-нибудь типа i, но ниче не вышло.
Или вот еще
![\frac{x-2}{2-i}+\frac{y+2}{2+i}=2i [tex]\frac{x-2}{2-i}+\frac{y+2}{2+i}=2i[/tex]](https://latex.codecogs.com/png.latex?\frac{x-2}{2-i}+\frac{y+2}{2+i}=2i)
.
Цитата: RawonaM от февраля 27, 2011, 22:49
Я так думал, что нужно подомножить верх и низ на что-нибудь типа i, но ниче не вышло.
Правильно, числитель и знаменатель умножаются на число, сопряжённое к знаменателю (здесь на 3+4i).
У меня какая-то странная проблема с линейной алгеброй, что все интуитивно понятно, а формально доказать затрудняюсь. Кажется все настолько тривиально, что чего там доказывать вообще. Как-то у меня в голове все эти пространства легко представляются и крутятся без всяких теорем.
Цитата: Квас от февраля 27, 2011, 22:51
ЦитироватьЯ так думал, что нужно подомножить верх и низ на что-нибудь типа i, но ниче не вышло.
Правильно, числитель и знаменатель умножаются на число, сопряжённое к знаменателю (здесь на 3+4i).
А-а, старый добрый трюк дэсу же. Точно, пасиб :)
Решил вроде все комплексы. :)
А почему детерминанту вы обозначаете как |A| кроме det(A)?
Цитата: RawonaM от февраля 27, 2011, 23:08
Решил вроде все комплексы. :)
А я так и не отфоткал ещё... Ну, невелика потеря. Я эту методичку сам ни разу не читал.
Цитата: RawonaM от февраля 27, 2011, 23:08
А почему детерминанту вы обозначаете как |A| кроме det(A)?
Для краткости, наверно. Я обычно det пишу, но вот решение примера выше как-то громоздко с ним выглядит. По происхождению это те же прямые скобки, которые из матрицы делают определитель. В книгах встречается: например, у Куроша (известный учебник, но материал там излагается как-то старомодно, поэтому не предлагаю).
Ну вот с комплексами не все так просто, там еще есть модули и те что с палкой сверху, забыл как называются. А еще тригометрическое представление через косинусисинус, неинтуитивно.
Цитата: RawonaM от февраля 27, 2011, 23:21
те что с палкой сверху, забыл как называются.
Сопряжённые.
Верх теории там — формула Муавра (возведение в степень) и извлечение корней. Так что неособо много всего. Зато любопытные приложения к тригонометрии, когда формула Муавра и бином Ньютона позволяют получать формулы кратных углов.
Верно ли же:
![|\frac{b+ai}{b-ai}|=\frac{|b+ai|}{|b-ai|}=1 [tex]|\frac{b+ai}{b-ai}|=\frac{|b+ai|}{|b-ai|}=1[/tex]](https://latex.codecogs.com/png.latex?|\frac{b+ai}{b-ai}|=\frac{|b+ai|}{|b-ai|}=1)
?
Цитата: Квас от февраля 27, 2011, 23:14
По происхождению это те же прямые скобки, которые из матрицы делают определитель.
Убивает, что в математике используются одинаковые обозначения для разных вещей...
![f^{-1}(x) [tex]f^{-1}(x)[/tex]](https://latex.codecogs.com/png.latex?f^{-1}(x))
- обратная к f или 1/f?
Цитата: RawonaM от февраля 27, 2011, 23:46
Верно ли же:
?
Ага. А геометрически очевидно: сопряжённые точки симметричны относительно вещественной оси.
Цитата: RawonaM от февраля 27, 2011, 23:49
Убивает, что в математике используются одинаковые обозначения для разных вещей...
Более того, общеобязательных обозначений практически нет. (Ну, число пи там...) Зато это намекает, что формулы не главное, а главное — идеи. ;D
Цитата: Квас от февраля 27, 2011, 23:57
ЦитироватьВерно ли же:
?
Ага. А геометрически очевидно: сопряжённые точки симметричны относительно вещественной оси.
Да, что второе равенство очевидно, то да, а вот то, что первое, я так и не понял как дойти до этого.
Цитата: Квас от февраля 27, 2011, 23:57
ЦитироватьУбивает, что в математике используются одинаковые обозначения для разных вещей...
Более того, общеобязательных обозначений практически нет. (Ну, число пи там...) Зато это намекает, что формулы не главное, а главное — идеи. ;D
Ну то да, математика — найгуманитарнейшая из негуманитарных :)
Комплексные числа (http://depositfiles.com/files/18vuezzr1)
Линейные операторы (http://depositfiles.com/files/hsjr3jr2j)
Пространства со скалярным произведением (http://depositfiles.com/files/hsjr3jr2j)
Если получится получше копии раздобыть, то я уж не премину.
Цитата: RawonaM от февраля 28, 2011, 09:00
Ну то да, математика — найгуманитарнейшая из негуманитарных :)
Как-то на философии нам сказали, что математика может рассматриваться самой гуманитарной из всех наук. Потому что изучаемые ею сущности существуют
исключительно в человеческом сознании. Но те идеи, из которых состоит содержательная часть математики, происходят не из самого сознания, а из отражаемой им реальности. Как-то так. :umnik:
Спасибо огромное! :)
Так а все-таки, в чем разница между линейными пространствами и пространствами со скалярным произведением?
Цитата: RawonaM от февраля 28, 2011, 16:26
Спасибо огромное! :)
Да не за что. :) Мне даже неудобно, что они исписанные и отфотканные к тому же.
Цитата: RawonaM от февраля 28, 2011, 16:28
Так а все-таки, в чем разница между линейными пространствами и пространствами со скалярным произведением?
Линейное пространство — это множество, на котором заданы две операции: сложение и умножение на элементы некоторого поля. Вещественное линейное пространство, на котором задано скалярное произведение, называется
евклидовым. То есть на евклидовых пространствах заданы три операции, и их геометрия богаче. В частности, в евклидовых пространствах определено понятие длины вектора и угла между векторами (в общих линейных пространствах эти понятия не имеют смысла).
Комплексное пространство со скалярным произведением называется
унитарным.
Последняя методичка и посвящена евклидовым и унитарным пространствам.
Цитата: Квас от февраля 28, 2011, 16:33
Линейное пространство — это множество, на котором заданы две операции: сложение и умножение на элементы некоторого поля. Вещественное линейное пространство, на котором задано скалярное произведение, называется евклидовым.
А скалярное произведение — это не произведение между векторами и не умножение на элементы поля? Запутался.
Цитата: RawonaM от февраля 28, 2011, 16:37
А скалярное произведение — это не произведение между векторами и не умножение на элементы поля? Запутался.
Два вектора перемножаются, получается число. В элементарной геометрии определяется как произведение длин векторов на косинус угла между между ними.
А, теперь ясно. Ну что ж, будем зубрить. Хотя я и так во всю :)
Цитата: RawonaM от февраля 27, 2011, 23:21
Ну вот с комплексами не все так просто, там еще есть модули и те что с палкой сверху, забыл как называются. А еще тригометрическое представление через косинусисинус, неинтуитивно.
Неужели у вас в курсе нет геометрического представления комплексных чисел?
Описанные вами понятия становятся совершенно интуитивными и простыми в геометрическом представлении.
Представьте себе координатную плоскость с осями
x и
y. Комплексным числом
x+i
y называется вектор на этой плоскости с координатами (
x,
y), (т. е. начало стрелочки исходит из точки (0, 0), конец — в точке (
x,
y)).
Сложение комплексных чисел — это сложение векторов, умножение на действительное число — умножение вектора на скаляр.
Модуль комплексного числа — это длина вектора (по теореме Пифагора
![|x+iy|=\sqrt{x^2+y^2} [tex]|x+iy|=\sqrt{x^2+y^2}[/tex]](https://latex.codecogs.com/png.latex?|x+iy|=\sqrt{x^2+y^2})
).
«Палка сверху» —
комплексносопряжённое число — это отражение вектора относительно оси
x (
вещественной оси; ось
y называют
мнимой осью):
![\overline{x+iy}=x-iy [tex]\overline{x+iy}=x-iy[/tex]](https://latex.codecogs.com/png.latex?\overline{x+iy}=x-iy)
.
Тригонометрическое представление — это запись комплексного числа через его модуль и угол между положительным направлением действительной оси и направлением вектора (этот угол называется аргументом комплексного числа; как обычно, он положителен при вращении против часовой стрелки от оси и отрицателен — по часовой):
(http://upload.wikimedia.org/wikipedia/commons/thumb/a/ab/Complex_number.svg/220px-Complex_number.svg.png)
Из определения синуса и косинуса ясно, что Re
z = |
z| cos arg
z, Im
z = |
z| sin arg
z.
Нахождение аргумента числа: arg (
x+i
y) = arctg (
y/x).
В таком представлении легко умножать комплексные числа. Чтобы умножить два числа, надо умножить их модули, а аргументы — сложить:
Если
c =
a∙
b, то |
c| = |
a|∙|
b|; arg
c = arg
a + arg
b.
Вспоминая, что
eit = cos
t + i sin
t, получаем ещё одно удобное представление комплексного числа:
z = |
z|
ei argz.
Как возвести комплексное число в степень?
![z^t = (|z|e^{i\arg z})^t = |z|^t e^{i t\arg z} [tex]z^t = (|z|e^{i\arg z})^t = |z|^t e^{i t\arg z}[/tex]](https://latex.codecogs.com/png.latex?z^t = (|z|e^{i\arg z})^t = |z|^t e^{i t\arg z})
.
Цитата: RawonaM от февраля 27, 2011, 23:49
- обратная к f или 1/f?
![\frac 1 {f(x)} [tex]\frac 1 {f(x)}[/tex]](https://latex.codecogs.com/png.latex?\frac 1 {f(x)})
обычно записывают как
![\left( f(x) \right) ^{-1} [tex]\left( f(x) \right) ^{-1}[/tex]](https://latex.codecogs.com/png.latex?\left( f(x) \right) ^{-1})
.
Запись типа
![\sin ^2 x [tex]\sin ^2 x[/tex]](https://latex.codecogs.com/png.latex?\sin ^2 x)
для
^2[/tex]](https://latex.codecogs.com/png.latex?(\sin x)^2)
— это, скорее, исключение, используемое только в тригонометрии, чем правило для всех функций.
Цитата: Тайльнемер от марта 1, 2011, 08:23
Неужели у вас в курсе нет геометрического представления комплексных чисел?
Описанные вами понятия становятся совершенно интуитивными и простыми в геометрическом представлении.
Есть такое представление, но все-равно неинтуитивно.
Насколько я понимаю, единственная цель и профит от такого представления — возможность найти корни показательного уравнения. В остальных случаях обычное представление a-bi предпочтительнее. Или я ошибаюсь?
Цитата: RawonaM от марта 1, 2011, 13:02
но все-равно неинтуитивно
А что именно вызывает у вас трудности?
Цитата: RawonaM от марта 1, 2011, 13:18
Насколько я понимаю, единственная цель и профит от такого представления — возможность найти корни показательного уравнения. В остальных случаях обычное представление a-bi предпочтительнее. Или я ошибаюсь?
Да, возможно, что в алгебре это и не пригодится вообще. Это в комплексном анализе в основном, вроде, используется.
Хотя в алгебре тоже. Например, группа корней из единицы, там...
Цитата: Тайльнемер от марта 1, 2011, 14:25
Цитироватьно все-равно неинтуитивно
А что именно вызывает у вас трудности?
Да вроде трудностей не вызывает, кроме обычных трудностей с тригонометрией.
Неинтуитивно не значит вызывает трудности. :) Скорее непонятна логика, побудившая сделать такое обозначение. Например, R
2 тоже можно так представить. Будет от этого какой-нибудь профит?
Цитата: RawonaM от марта 1, 2011, 14:31
Например, R2 тоже можно так представить. Будет от этого какой-нибудь профит?
Будет полярная система координат — полезная вещь.
Цитата: Тайльнемер от марта 1, 2011, 14:48
ЦитироватьНапример, R2 тоже можно так представить. Будет от этого какой-нибудь профит?
Будет полярная система координат — полезная вещь.
Ну мне на данном этапе развития как математика — бесполезна :)
Складывать и вычитать проще в алгебраической форме, умножать, делить, возводить в степень и извлекать корни — в тригонометрической.
Цитата: Квас от марта 1, 2011, 16:56
Складывать и вычитать проще в алгебраической форме, умножать, делить, возводить в степень и извлекать корни — в тригонометрической.
Нет в жизни счастья :(
RawonaM, вы как-то чересчур ответственно подходите к комплексным числам. :)Там и теории толком нет: корни умеете извлекать — всё, большего не требуется. И тригонометрии там никакой нет.
Цитата: RawonaM от марта 1, 2011, 17:00
Нет в жизни счастья
Да почему же? Наоборот, есть: хотите — умножайте в алгебраической форме, хотите — в тригонометрической. И то и другое несложно.
Цитата: Тайльнемер
Почему не ⇓ ?
Нужно найти трансформацию
![T:\mathbb{R}^4\rightarrow\mathbb{R}^3 [tex]T:\mathbb{R}^4\rightarrow\mathbb{R}^3[/tex]](https://latex.codecogs.com/png.latex?T:\mathbb{R}^4\rightarrow\mathbb{R}^3)
, так чтобы ImT=Sp{(1,1,0)} и kerT=Sp{(0,1,1,0),(1,1,0,0)}.
Как к этому подходить? Я нашел просто методом тыка, но не пойму систему, как нужно такое решать. Метод тыка не всегда работает.
Разве не любая обратимая трансформация — изоморфизм?
Линейный оператор задаётся на базисе.
Если оператор определён на базисных векторах, то он однозначно определён и на любом другом векторе:
![A(\xi_1 e_1 + \ldots + \xi_n e_n) = \xi_1 Ae_1 + \ldots + \xi_n A e_n [tex]A(\xi_1 e_1 + \ldots + \xi_n e_n) = \xi_1 Ae_1 + \ldots + \xi_n A e_n [/tex]](https://latex.codecogs.com/png.latex?A(\xi_1 e_1 + \ldots + \xi_n e_n) = \xi_1 Ae_1 + \ldots + \xi_n A e_n )
С другой стороны, можно произвольно задать оператор на векторах базиса, тогда вышеприведённая формула определяет линейный оператор на всём пространстве (проверка тривиальна). Таким образом,
линейный оператор можно произвольно задавать на векторах некоторого базиса, после этого произвол заканчивается.В нашем случае значение оператора на векторах (0,1,1,0), (1,1,0,0) уже задано (переводит их в нулевой вектор). Значит, надо дополнить эти два вектора до базиса и определить оператор на двух новых векторах. Как сделать? Очевидное решение — сделать так, чтобы они оба переходили в вектор (1,1,0).
Значит, если мы хотим задать оператор матрицей, то нам надо: 1) дополнить векторы (0,1,1,0), (1,1,0,0) до базиса; 2) дополнить (1,1,0) до базиса; 3) в полученных базисах оператор будет иметь матрицу
![<br />\begin{pmatrix}<br />0 & 0 & 1 & 1\\<br />0 & 0 & 0 & 0\\<br />0 & 0 & 0 & 0\\<br />\end{pmatrix}<br /> [tex]<br />\begin{pmatrix}<br />0 & 0 & 1 & 1\\<br />0 & 0 & 0 & 0\\<br />0 & 0 & 0 & 0\\<br />\end{pmatrix}<br />[/tex]](https://latex.codecogs.com/png.latex?<br />\begin{pmatrix}<br />0 & 0 & 1 & 1\\<br />0 & 0 & 0 & 0\\<br />0 & 0 & 0 & 0\\<br />\end{pmatrix}<br />)
По матрице видно, что оператор искомый:
![<br />\dim A = \dim \mathop{\mathrm{Im}} A = 1,<br /> [tex]<br />\dim A = \dim \mathop{\mathrm{Im}} A = 1,<br />[/tex]](https://latex.codecogs.com/png.latex?<br />\dim A = \dim \mathop{\mathrm{Im}} A = 1,<br />)
и вектор (1,1,0) принадлежит образу, поэтому образ равен Sp{(1,1,0)}; сумма размерностей ядра и образа равна размерности пространства, куда действует, поэтому размерность ядра равна 2. Значит, ядро будет Sp{(0,1,1,0),(1,1,0,0)}.
Кстати, оператор будет определяться неоднозначно.
Вопросы: 1) это понятно или нет? 2) это то, что нужно, или нет? 3) умеете ли вы дополнять векторы до базиса? 4) нужно ли выписывать матрицу в стандартных базисах?
Цитата: RawonaM от марта 1, 2011, 22:07
Разве не любая обратимая трансформация — изоморфизм?
Любая. (Если обратный оператор определён на всём пространстве.)
Цитата: Квас от марта 1, 2011, 22:08
Вопросы: 1) это понятно или нет? 2) это то, что нужно, или нет? 3) умеете ли вы дополнять векторы до базиса? 4) нужно ли выписывать матрицу в стандартных базисах?
1) Пока что вроде все понятно, но дайте разобраться :)
2) да :)
3) ну а как же
4) не понял вопроса
Спасибо :)
Опять у меня формул не видно...(
Можете зашотить сообщение и приаттачить в сообщении?
Стоп! Размерность образа (ранг оператора) + размерность ядра (дефект) = размерности пространства, откуда действует! (Оператор некоторые измерения «схлопывает» в 0, а на дополнении к ядру действует как изоморфизм на образ. (Это одна из вещей, которые либо абсолютно непонятны, либо очевидны.)) Если мы хотим, чтобы образ был одномерный, а ядро — двумерное, то размерность отображаемого пространства должна быть 3! Противоречие, однако. Значит, такого оператора не существует.
Прошлое сообщение приаттачу (с язвительными ремарками), всё-таки там были и толковые мысли.
Цитата: Квас от марта 1, 2011, 22:29
Стоп! Размерность образа (ранг оператора) + размерность ядра (дефект) = размерности пространства, откуда действует!
Пардон, меа максима кульпа...
Должно быть ImT=Sp{(1,1,0),(0,1,1)} :)
Цитата: RawonaM от марта 1, 2011, 23:02
Должно быть ImT=Sp{(1,1,0),(0,1,1)} :)
Оце дiло. Тогда, соответственно, каждый добавленные векторы к первому базису отображаем в эти два, и в матрице оператора будет небольшая единичная матричка закопана. Ранг равен 2, дефект = 4-2=2, так что всё сходится.
Мне кажется, такую проверку стоит сделать, чтобы обосновать, что ядро или образ не получились шире, чем требовалось.
Цитата: Квас от марта 1, 2011, 22:08
Значит, если мы хотим задать оператор матрицей, то нам надо: 1) дополнить векторы (0,1,1,0), (1,1,0,0) до базиса; 2) дополнить (1,1,0) до базиса; 3) в полученных базисах оператор будет иметь матрицу
![\begin{pmatrix} 0 & 0 & 1 & 1\\ 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 0\\ \end{pmatrix} [tex] \begin{pmatrix} 0 & 0 & 1 & 1\\ 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 0\\ \end{pmatrix} [/tex]](https://latex.codecogs.com/png.latex? \begin{pmatrix} 0 & 0 & 1 & 1\\ 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 0\\ \end{pmatrix} )
Pas compris... откуда матрица-то нарисовалась?.. До слов "будет иметь матрицу" все понятно.
Ну, по общему правилу: образы векторов базиса
![\mathbb R^4 [tex]\mathbb R^4[/tex]](https://latex.codecogs.com/png.latex?\mathbb R^4)
раскладываем по базису в
![\mathbb R^3 [tex]\mathbb R^3[/tex]](https://latex.codecogs.com/png.latex?\mathbb R^3)
и «в столбцы — в столбцы — в столбцы. В линейной алгебре всё ставится в столбцы (если не оговорено противное)». ©
Только у меня неправильная, конечно, матрица. С учётом нового условия в правом верхнем углу будет единичная второго порядка, остальные — нули.
По какому базису?..
базис у нас там содержит что-то типа (1, 1, 0, 0), откуда тут берется (0,0,0,1)?
Цитата: Квас от марта 1, 2011, 23:11
Только у меня неправильная, конечно, матрица. С учётом нового условия в правом верхнем углу будет единичная второго порядка, остальные — нули.
Ну это я догадался. Я все одно не понимаю принципа пока что.
Из-за того что мы определили базис нестандартный, как теперь записать это в форме T(x,y,z,t)=(?,?,?)?
Пусть у нас первый базис
![\mathbf e_1,\ \mathbf e_2,\ \mathbf e_3,\ \mathbf e_4 [tex]\mathbf e_1,\ \mathbf e_2,\ \mathbf e_3,\ \mathbf e_4[/tex]](https://latex.codecogs.com/png.latex?\mathbf e_1,\ \mathbf e_2,\ \mathbf e_3,\ \mathbf e_4)
, а второй —
![\mathbf f_1,\ \mathbf f_2,\ \mathbf f_3 [tex]\mathbf f_1,\ \mathbf f_2,\ \mathbf f_3[/tex]](https://latex.codecogs.com/png.latex?\mathbf f_1,\ \mathbf f_2,\ \mathbf f_3)
(первые два вектора в каждом базисе — данные в условии). По нашему определению
![<br />A\mathbf e_1 = \mathbf 0 = 0 \mathbf f_1 + 0\mathbf f_2 + 0 \mathbf f_3 + \mathbf f_4\\<br />A\mathbf e_2 = \mathbf 0 = 0 \mathbf f_1 + 0\mathbf f_2 + 0 \mathbf f_3 + \mathbf f_4\\<br />A\mathbf e_3 = \mathbf f_1 = 1 \mathbf f_1 + 0\mathbf f_2 + 0 \mathbf f_3 + \mathbf f_4\\<br />A\mathbf e_4 = \mathbf f_2 = 0 \mathbf f_1 + 1\mathbf f_2 + 0 \mathbf f_3 + \mathbf f_4<br /> [tex]<br />A\mathbf e_1 = \mathbf 0 = 0 \mathbf f_1 + 0\mathbf f_2 + 0 \mathbf f_3 + \mathbf f_4\\<br />A\mathbf e_2 = \mathbf 0 = 0 \mathbf f_1 + 0\mathbf f_2 + 0 \mathbf f_3 + \mathbf f_4\\<br />A\mathbf e_3 = \mathbf f_1 = 1 \mathbf f_1 + 0\mathbf f_2 + 0 \mathbf f_3 + \mathbf f_4\\<br />A\mathbf e_4 = \mathbf f_2 = 0 \mathbf f_1 + 1\mathbf f_2 + 0 \mathbf f_3 + \mathbf f_4<br />[/tex]](https://latex.codecogs.com/png.latex?<br />A\mathbf e_1 = \mathbf 0 = 0 \mathbf f_1 + 0\mathbf f_2 + 0 \mathbf f_3 + \mathbf f_4\\<br />A\mathbf e_2 = \mathbf 0 = 0 \mathbf f_1 + 0\mathbf f_2 + 0 \mathbf f_3 + \mathbf f_4\\<br />A\mathbf e_3 = \mathbf f_1 = 1 \mathbf f_1 + 0\mathbf f_2 + 0 \mathbf f_3 + \mathbf f_4\\<br />A\mathbf e_4 = \mathbf f_2 = 0 \mathbf f_1 + 1\mathbf f_2 + 0 \mathbf f_3 + \mathbf f_4<br />)
Коэффициенты разложений и записываем в матрицу. Получается матрица оператора в базисах
![\mathbf e,\ \mathbf f [tex]\mathbf e,\ \mathbf f[/tex]](https://latex.codecogs.com/png.latex?\mathbf e,\ \mathbf f)
.
Картинки не видно?
Нули перед f4 забыл поставить!
Че-то я туплю совсем, но не понимаю... Может время уже спать. :)
Когда я пытался это решить, тоже нарисовал себе:
1 1 0 0 >> 1 1 0
0 1 1 0 >> 0 1 1
0 0 1 0 >> 0 0 0
0 0 0 1 >> 0 0 0
Но я не смог это в трансформацию записать или матрицу найти.
Цитата: Квас от марта 1, 2011, 23:24
Картинки не видно?
Не видно :( В картинке приаттачивать разве не проще? Не удобно в ридер бегать постоянно.
Пожалуй на сегодня хватит, мозг уже ничего не воспринимает. Спасибо и спокойной ночи :)
Цитата: RawonaM от марта 1, 2011, 23:30
В картинке приаттачивать разве не проще?
Так её же сохранять надо в чём-то куда-то... Лучше я в ситмо буду.
Цитата: RawonaM от марта 1, 2011, 23:30
Когда я пытался это решить, тоже нарисовал себе:
1 1 0 0 >> 1 1 0
0 1 1 0 >> 0 1 1
0 0 1 0 >> 0 0 0
0 0 0 1 >> 0 0 0
Нет, надо же первые два вектора в 0 загонять.
Матрица оператора в базисах определяется разложениями образов векторов первого базиса по второму базису. Координаты всех этих векторов в других базисах не имеют значения.
Цитата: RawonaM от марта 1, 2011, 23:32
Пожалуй на сегодня хватит, мозг уже ничего не воспринимает. Спасибо и спокойной ночи :)
«Хрен с ним, завтра докуём.» Спокойной ночи. :)
Цитата: Квас от марта 1, 2011, 23:36
ЦитироватьКогда я пытался это решить, тоже нарисовал себе:
1 1 0 0 >> 1 1 0
0 1 1 0 >> 0 1 1
0 0 1 0 >> 0 0 0
0 0 0 1 >> 0 0 0
Нет, надо же первые два вектора в 0 загонять.
Действительно, т.е. надо переложить так:
B1 B2
1 1 0 0 >> 0 0 0
0 1 1 0 >> 0 0 0
0 0 1 0 >> 1 1 0
0 0 0 1 >> 0 1 1
Теперь если я расположу это по столбцам, из них я смогу получить матрицу преобразования? Что-то у меня этого не вышло :(
Цитата: RawonaM от марта 2, 2011, 09:33
Теперь если я расположу это по столбцам, из них я смогу получить матрицу преобразования?
Mais non ! Что такое матрица преобразования? Векторы Ae вы раскладываете по базису f, и всё.
В вашем случае векторы — наборы чисел, то есть фактически они заданы координатами в стандартном базисе («бегающая единичка»). Эти числа не имеют никакого отношения к матрице оператора в базисах e, f. Вообще, с точки зрения теории линейных пространств все базисы равноправны, никакой из них не является почему-нибудь предпочтительным.
Вот я исправляю своё предыдущее сообщение:
Пусть у нас первый базис
![\mathbf e_1,\ \mathbf e_2,\ \mathbf e_3,\ \mathbf e_4 [tex]\mathbf e_1,\ \mathbf e_2,\ \mathbf e_3,\ \mathbf e_4[/tex]](https://latex.codecogs.com/png.latex?\mathbf e_1,\ \mathbf e_2,\ \mathbf e_3,\ \mathbf e_4)
, а второй —
![\mathbf f_1,\ \mathbf f_2,\ \mathbf f_3 [tex]\mathbf f_1,\ \mathbf f_2,\ \mathbf f_3[/tex]](https://latex.codecogs.com/png.latex?\mathbf f_1,\ \mathbf f_2,\ \mathbf f_3)
(первые два вектора в каждом базисе — данные в условии). По нашему определению
![A\mathbf e_1 = \mathbf 0 = 0 \mathbf f_1 + 0\mathbf f_2 + 0 \mathbf f_3 + 0\mathbf f_4\\ A\mathbf e_2 = \mathbf 0 = 0 \mathbf f_1 + 0\mathbf f_2 + 0 \mathbf f_3 + 0\mathbf f_4\\ A\mathbf e_3 = \mathbf f_1 = 1 \mathbf f_1 + 0\mathbf f_2 + 0 \mathbf f_3 + 0\mathbf f_4\\ A\mathbf e_4 = \mathbf f_2 = 0 \mathbf f_1 + 1\mathbf f_2 + 0 \mathbf f_3 + 0\mathbf f_4 [tex] A\mathbf e_1 = \mathbf 0 = 0 \mathbf f_1 + 0\mathbf f_2 + 0 \mathbf f_3 + 0\mathbf f_4\\ A\mathbf e_2 = \mathbf 0 = 0 \mathbf f_1 + 0\mathbf f_2 + 0 \mathbf f_3 + 0\mathbf f_4\\ A\mathbf e_3 = \mathbf f_1 = 1 \mathbf f_1 + 0\mathbf f_2 + 0 \mathbf f_3 + 0\mathbf f_4\\ A\mathbf e_4 = \mathbf f_2 = 0 \mathbf f_1 + 1\mathbf f_2 + 0 \mathbf f_3 + 0\mathbf f_4 [/tex]](https://latex.codecogs.com/png.latex? A\mathbf e_1 = \mathbf 0 = 0 \mathbf f_1 + 0\mathbf f_2 + 0 \mathbf f_3 + 0\mathbf f_4\\ A\mathbf e_2 = \mathbf 0 = 0 \mathbf f_1 + 0\mathbf f_2 + 0 \mathbf f_3 + 0\mathbf f_4\\ A\mathbf e_3 = \mathbf f_1 = 1 \mathbf f_1 + 0\mathbf f_2 + 0 \mathbf f_3 + 0\mathbf f_4\\ A\mathbf e_4 = \mathbf f_2 = 0 \mathbf f_1 + 1\mathbf f_2 + 0 \mathbf f_3 + 0\mathbf f_4 )
Коэффициенты разложений и записываем в матрицу. Получается матрица оператора в базисах
![\mathbf e,\ \mathbf f [tex]\mathbf e,\ \mathbf f[/tex]](https://latex.codecogs.com/png.latex?\mathbf e,\ \mathbf f)
.
![<br />\begin{pmatrix}<br />0 & 0 & 1 & 0\\<br />0 & 0 & 0 & 1\\<br />0 & 0 & 0 & 0\\<br />0 & 0 & 0 & 0<br />\end{pmatrix}<br /> [tex]<br />\begin{pmatrix}<br />0 & 0 & 1 & 0\\<br />0 & 0 & 0 & 1\\<br />0 & 0 & 0 & 0\\<br />0 & 0 & 0 & 0<br />\end{pmatrix}<br />[/tex]](https://latex.codecogs.com/png.latex?<br />\begin{pmatrix}<br />0 & 0 & 1 & 0\\<br />0 & 0 & 0 & 1\\<br />0 & 0 & 0 & 0\\<br />0 & 0 & 0 & 0<br />\end{pmatrix}<br />)
К стандартным базисам («бегающая единичка») эта матрица отношеня не имеет.
А если я хочу найти такую матрицу на стандартных базисах, что мешает?
Беру стандартные базисы, эти векторы уже являются координатами в стандартном базисе, по идее все зеркально одинаково.
Да ничто не мешает, но надо будет посчитать.
В принципе, если мы знаем матрицу в одной паре базисов, то мы можем найти матрицу в любых других базисах. Вроде в методичке формулы для оператора в разных пространствах нет, но её легко вывести (ср. с. 6 методички о линейных операторах). Вывод прилагаю.
В нашем случае векторы наших базисов уже разложены по стандартным, поэтому матрицы перехода от стандартных к нашим выписываются сразу (как вы уже догадались, «в столбцы, в столбцы, в столбцы». Если их обратить, то получатся матрицы перехода от наших к стандартным. Вам предстоит обратить одну из этих матриц (главное, не перепутать какую!) и перемножить три матрицы, это вычислительная часть.
Кстати, как вы дополняете систему до базиса? Методом Гаусса?
Цитата: Квас от марта 2, 2011, 13:02
Кстати, как вы дополняете систему до базиса? Методом Гаусса?
Ну да, делаем ступеньки и заполняем дырки.
Пожалуйста, дублируйте все что в pdf-aх в сообщениях тоже, да и вообще в принципе pdf не обязательно, он нужен только если не работают формулы, а они вроде заработали. Очень неудобно бегать туда сюда с кучей открытых документов в ридере и непонятно какой к какому относится.
Вы где набираете это?
Цитата: RawonaM от марта 2, 2011, 13:13
Цитата: Квас от Сегодня в 14:02ЦитироватьКстати, как вы дополняете систему до базиса? Методом Гаусса?
Ну да, делаем ступеньки и заполняем дырки.
Сначала дописать единичную матрицу, потом делать ступеньки, я надеюсь?
Цитата: RawonaM от марта 2, 2011, 13:13
Пожалуйста, дублируйте все что в pdf-aх в сообщениях тоже
Хорошо, вот последнее:
Пусть
![\mathbf e [tex]\mathbf e[/tex]](https://latex.codecogs.com/png.latex?\mathbf e)
,
![\mathbf e' [tex]\mathbf e'[/tex]](https://latex.codecogs.com/png.latex?\mathbf e')
~--- базисы в
![R^n [tex]R^n[/tex]](https://latex.codecogs.com/png.latex?R^n)
(это не арифметическое пространство, а абстрактное линейное;
![n [tex]n[/tex]](https://latex.codecogs.com/png.latex?n)
указывает на его размерность),
![\mathbf f [tex]\mathbf f[/tex]](https://latex.codecogs.com/png.latex?\mathbf f)
,
![\mathbf f' [tex]\mathbf f'[/tex]](https://latex.codecogs.com/png.latex?\mathbf f')
~--- базисы в
![R^m [tex]R^m[/tex]](https://latex.codecogs.com/png.latex?R^m)
;
![T_{\mathbf e\mathbf e'} [tex]T_{\mathbf e\mathbf e'}[/tex]](https://latex.codecogs.com/png.latex?T_{\mathbf e\mathbf e'})
,
![T_{\mathbf f\mathbf f'} [tex]T_{\mathbf f\mathbf f'}[/tex]](https://latex.codecogs.com/png.latex?T_{\mathbf f\mathbf f'})
~--- матрицы перехода. Пусть
![x \in R^n [tex]x \in R^n[/tex]](https://latex.codecogs.com/png.latex?x \in R^n)
~--- произвольный вектор,
![\xi [tex]\xi[/tex]](https://latex.codecogs.com/png.latex?\xi)
,
![\xi' [tex]\xi'[/tex]](https://latex.codecogs.com/png.latex?\xi')
~--- столбцы его координат в базисах
![\mathbf e [tex]\mathbf e[/tex]](https://latex.codecogs.com/png.latex?\mathbf e)
,
![\mathbf e' [tex]\mathbf e'[/tex]](https://latex.codecogs.com/png.latex?\mathbf e')
,
![\eta [tex]\eta[/tex]](https://latex.codecogs.com/png.latex?\eta)
,
![\eta' [tex]\eta'[/tex]](https://latex.codecogs.com/png.latex?\eta')
~--- столбцы координат вектора
![Ax [tex]Ax[/tex]](https://latex.codecogs.com/png.latex?Ax)
в базисах
![\mathbf f [tex]\mathbf f[/tex]](https://latex.codecogs.com/png.latex?\mathbf f)
,
![\mathbf f' [tex]\mathbf f'[/tex]](https://latex.codecogs.com/png.latex?\mathbf f')
. Тогда имеем:
![\eta = A_{\mathbf e\mathbf f} \xi, \ \xi=T_{\mathbf e\mathbf e'} \xi' [tex] \eta = A_{\mathbf e\mathbf f} \xi, \ \xi=T_{\mathbf e\mathbf e'} \xi' [/tex]](https://latex.codecogs.com/png.latex? \eta = A_{\mathbf e\mathbf f} \xi, \ \xi=T_{\mathbf e\mathbf e'} \xi' )
![\eta' = A_{\mathbf e'\mathbf f'} \xi', \ \eta=T_{\mathbf f\mathbf f'} \eta' [tex] \eta' = A_{\mathbf e'\mathbf f'} \xi', \ \eta=T_{\mathbf f\mathbf f'} \eta' [/tex]](https://latex.codecogs.com/png.latex? \eta' = A_{\mathbf e'\mathbf f'} \xi', \ \eta=T_{\mathbf f\mathbf f'} \eta' )
Из этих формул выводим
![\eta' = T_{\mathbf f\mathbf f'}^{-1} A_{\mathbf e\mathbf f}T_{\mathbf e\mathbf e'} \xi' , [tex] \eta' = T_{\mathbf f\mathbf f'}^{-1} A_{\mathbf e\mathbf f}T_{\mathbf e\mathbf e'} \xi' , [/tex]](https://latex.codecogs.com/png.latex? \eta' = T_{\mathbf f\mathbf f'}^{-1} A_{\mathbf e\mathbf f}T_{\mathbf e\mathbf e'} \xi' , )
то есть
![A_{\mathbf e'\mathbf f'} \xi' = T_{\mathbf f\mathbf f'}^{-1} A_{\mathbf e\mathbf f}T_{\mathbf e\mathbf e'} \xi' [tex] A_{\mathbf e'\mathbf f'} \xi' = T_{\mathbf f\mathbf f'}^{-1} A_{\mathbf e\mathbf f}T_{\mathbf e\mathbf e'} \xi' [/tex]](https://latex.codecogs.com/png.latex? A_{\mathbf e'\mathbf f'} \xi' = T_{\mathbf f\mathbf f'}^{-1} A_{\mathbf e\mathbf f}T_{\mathbf e\mathbf e'} \xi' )
при всех
![\xi' [tex]\xi'[/tex]](https://latex.codecogs.com/png.latex?\xi')
. Следовательно,
![A_{\mathbf e'\mathbf f'}= T_{\mathbf f\mathbf f'}^{-1} A_{\mathbf e\mathbf f}T_{\mathbf e\mathbf e'}. [tex] A_{\mathbf e'\mathbf f'}= T_{\mathbf f\mathbf f'}^{-1} A_{\mathbf e\mathbf f}T_{\mathbf e\mathbf e'}.[/tex]](https://latex.codecogs.com/png.latex? A_{\mathbf e'\mathbf f'}= T_{\mathbf f\mathbf f'}^{-1} A_{\mathbf e\mathbf f}T_{\mathbf e\mathbf e'}.)
Это и есть нужная формула.
Цитата: RawonaM от марта 2, 2011, 13:13
Вы где набираете это?
В редакторе для ТеХа и обрабатываю настоящим ТеХом.
Узнал дату экзамена: 31-го марта, т.е. есть еще четыре недели.
Решаю экзамены, иногда попадаются неприлично легкие вопросы, что прямо диву даешься. А иногда попадаются такие, что ниче не понятно.
Беспокоит то, что некоторые простые или даже сугубо технические вещи никак не осядут в голове.
Например с этими переходами выше так и не разобрался. :(
В выходные буду уже подробнее вникать во все поглубже, просто до сих пор занимался почти исключительно перечитыванием учебников и вспоминанием забытого. Теперь вот надо по-настоящему начать понимать.
Цитата: Квас от марта 2, 2011, 13:30
ЦитироватьЦитироватьКстати, как вы дополняете систему до базиса? Методом Гаусса?
Ну да, делаем ступеньки и заполняем дырки.
Сначала дописать единичную матрицу, потом делать ступеньки, я надеюсь?
Не очень понял, что это значит... Какая тут вообще сложность может быть? Берем допустим векторы:
1 1 0 0
0 0 3 4
Вставляем где надо, чтобы получилась правильная лесенка:
1 1 0 0
0 1 0 0
0 0 3 4
0 0 0 1
Вуаля, базис.
Или это элементарноватсон, или я чего-то недопонимаю. Дайте мне какую-нибудь группу векторов с подводным камнем, посмотрим смогу ли я дополнить :)
Векторы в строки?!?! Ужас!
Ну вот вам парочка: (1,1,1), (1,1,2).
Цитата: Квас от марта 3, 2011, 18:07
Ну вот вам парочка: (1,1,1), (1,1,2).
1 1 1
0 1 0
1 1 2
Если из третьей вычесть первую, то треугольная матрица получается, значит базис :)
Цитата: Квас от марта 3, 2011, 18:07
Векторы в строки?!?! Ужас!
А как вы решаете систему по системе Гаусса? Там вроде векторы строки. Мне в строках проще мысленно делать элементарные операции :)
Цитата: RawonaM от марта 3, 2011, 18:18
А как вы решаете систему по системе Гаусса? Там вроде векторы строки. Мне в с строках проще мысленно делать элементарные операции :)
В системе векторов как бы и нет. В строки-то коэффициенты записывают. И если решения трактовать как векторы арифметического пространства, то коэффициенты будут координатами функционалов на этом пространстве. Векторы в столбцы, функционалы в строки — это нормально.
Цитата: RawonaM от марта 3, 2011, 18:18
Цитата: Квас от Сегодня в 19:07ЦитироватьНу вот вам парочка: (1,1,1), (1,1,2).
1 1 1
0 1 0
1 1 2
Если из третьей вычесть первую, то треугольная матрица получается, значит базис :)
Оба примера вы правильно решаете, потому что у вас получается, что ранг матрицы равен размерности пространства. Но вашего алгоритма я не понял. Почему вы в данном случае выбрали именно единицу на втором месте? Как бы вы применили свой алгоритм, например, к системе
(10, -11, 3, 4, -7, 6)
(17, 15, -8, 4, 31, 5)
(-2, 1, 20, 23, -6, 0)
? (Считать не надо, конечно: без компьютера тяжеловато.)
Цитата: Квас от марта 3, 2011, 18:25
Оба примера вы правильно решаете, потому что у вас получается, что ранг матрицы равен размерности пространства. Но вашего алгоритма я не понял. Почему вы в данном случае выбрали именно единицу на втором месте? Как бы вы применили свой алгоритм, например, к системе
(10, -11, 3, 4, -7, 6)
(17, 15, -8, 4, 31, 5)
(-2, 1, 20, 23, -6, 0)
? (Считать не надо, конечно: без компьютера тяжеловато.)
Третью строку умножаю на 5 и прибавляю к ней первую, тогда у нее первый элемент будет ноль. Вторую строку делю на 17 и вычитаю из нее 1/10 первой строки, тогда у нее первый элемент будет ноль. Дальше с третьей и второй строкой делаю похожие действия, чтобы получить нули на втором (и т.п.) месте. В итоге получается лесенка, которую я дополняю до правильной лесенки квадратной матрицы. Но на строки которые мы поломали нужно сделать анду, т.е. взять те, что изначально были.
Что-то типа того.
А, теперь я понял! То есть фактически вы прибавляете к векторам линейные комбинации остальных векторов системы, при этом линейная оболочка не меняется.
Можно ещё вот так.
Задача. Найти базис конечной системы векторов.
Записываем векторы в столбцы и элементарными преобразованиями строк приводим матрицу к ступенчатому виду. В столбцах преобразованных матриц получаются координаты исходных векторов в новых базисах. По ступенчатому виду базис определяется мгновенно: его составляют столбцы, соответствующие «углам» ступенек, то есть в которых находится ненулевой минор наибольшего порядка.
А для дополнения системы векторов до базиса в прошлом году я предлагал студентам поставить векторы в столбцы, дописать справа единичную матрицу и действовать по вышеописанному алгоритму. Кажется, это моя самодеятельность; вычислений получается больше, чем у вас.
Вот ведь голова садовая! Кажется, мне рассказывали когда-то ваш алгоритм, да из головы выветрился. Так что спасибо, что напомнили! (Жалко, мои нынешние студенты не оценят. :()
Цитата: Квас от марта 3, 2011, 18:47
Вот ведь голова садовая! Кажется, мне рассказывали когда-то ваш алгоритм, да из головы выветрился. Так что спасибо, что напомнили! (Жалко, мои нынешние студенты не оценят. :()
Да не за что. Я посмотрю, какой алгоритм используется у нас в книге, я как-то делал это интуитивно, то ли я помню это с три года назад из книги, то ли я сам придумал, не знаю, но как-то не зацикливался на этом, казалось тривиальной задачей.
Цитата: Квас от марта 3, 2011, 18:45
Записываем векторы в столбцы и элементарными преобразованиями строк приводим матрицу к ступенчатому виду. В столбцах преобразованных матриц получаются координаты исходных векторов 1) в новых базисах. 2) По ступенчатому виду базис определяется мгновенно: его составляют столбцы, соответствующие «углам» ступенек, то есть в которых находится ненулевой минор наибольшего порядка.
Что за новые базисы? Можете дать наглядный пример? А то непонятно все-таки.
Цитата: RawonaM от марта 3, 2011, 18:53
Цитата: Квас от Сегодня в 19:45ЦитироватьЗаписываем векторы в столбцы и элементарными преобразованиями строк приводим матрицу к ступенчатому виду. В столбцах преобразованных матриц получаются координаты исходных векторов 1) в новых базисах. 2) По ступенчатому виду базис определяется мгновенно: его составляют столбцы, соответствующие «углам» ступенек, то есть в которых находится ненулевой минор наибольшего порядка.
Что за новые базисы? Можете дать наглядный пример? А то непонятно все-таки.
Если поменять местами два вектора базиса, то при разложении по полученному базису у векторов меняются местами две соответствующие координаты. Например, пусть
![x = \xi_1 e_1 + \xi_2 e_2 + \xi_3 e_3 + \ldots + \xi_n e_n, [tex]x = \xi_1 e_1 + \xi_2 e_2 + \xi_3 e_3 + \ldots + \xi_n e_n,[/tex]](https://latex.codecogs.com/png.latex?x = \xi_1 e_1 + \xi_2 e_2 + \xi_3 e_3 + \ldots + \xi_n e_n,)
тогда в базисе
![e_1, e_2, e_3,\ldots, e_n [tex]e_1, e_2, e_3,\ldots, e_n[/tex]](https://latex.codecogs.com/png.latex?e_1, e_2, e_3,\ldots, e_n)
x имеет координаты
[/tex]](https://latex.codecogs.com/png.latex?(\xi_1, \xi_2, \ldots, \xi_n))
. Но можно записать
![x = \xi_ 2e_2 + \xi_1 e_1 + \xi_3 e_3 + \ldots + \xi_n e_n, [tex]x = \xi_ 2e_2 + \xi_1 e_1 + \xi_3 e_3 + \ldots + \xi_n e_n,[/tex]](https://latex.codecogs.com/png.latex?x = \xi_ 2e_2 + \xi_1 e_1 + \xi_3 e_3 + \ldots + \xi_n e_n,)
тогда получается, что в базисе
![e_2, e_1, e_3 \ldots, e_n [tex]e_2, e_1, e_3 \ldots, e_n[/tex]](https://latex.codecogs.com/png.latex?e_2, e_1, e_3 \ldots, e_n)
x имеет координаты
[/tex]](https://latex.codecogs.com/png.latex?(\xi_2, \xi_1, \xi_3 \ldots, \xi_n))
.
Если вектор базиса разделить на
![\alpha \neq 0 [tex]\alpha \neq 0[/tex]](https://latex.codecogs.com/png.latex?\alpha \neq 0)
, то соответствующие координаты векторов умножаются на
![\alpha [tex]\alpha[/tex]](https://latex.codecogs.com/png.latex?\alpha)
. Если вектор
![e_i [tex]e_i[/tex]](https://latex.codecogs.com/png.latex?e_i)
заменить на
![e_i + \alpha e_j [tex]e_i + \alpha e_j[/tex]](https://latex.codecogs.com/png.latex?e_i + \alpha e_j)
, то
![\xi_j [tex]\xi_j[/tex]](https://latex.codecogs.com/png.latex?\xi_j)
заменяется на
![\xi_j - \alpha \xi_i [tex]\xi_j - \alpha \xi_i[/tex]](https://latex.codecogs.com/png.latex?\xi_j - \alpha \xi_i)
. Это легко проверить.
Таким образом, если менять местами координаты векторов, умножать координату на ненулевое число или добавлять к координате другую, умноженную на любое число, то новые наборы чисел можно рассматривать, как координаты в новых базисах, которые получаются соответственно изменением порядка базисных векторов, умножения вектора базиса на некоторое число, отличное от 0, и прибавления к вектору базиса другого, умноженного на число. (Эти операции не портят линейной независимости.)
Если мы, записав векторы в столбцы, увидели ступенчатую матрицу, то базис очевиден (как и многое другое). В противном случае можно привести матрицу к ступенчатой методом Гаусса, в столбцах будут всё время записаны те же векторы, но в новых базисах (отличающихся перестановкой векторов и т. д.). А по ступенчатой матрице мы определяем, что базис состоит, например, из первого, третьего и четвёртого векторов.
Мне кажется у нас почти всегда векторы выстраивают в строки, поэтому мне совсем непривычно думать в столбиках, вся природа противится :)
Цитата: RawonaM от марта 3, 2011, 19:30
Мне кажется у нас почти всегда векторы выстраивают в строки, поэтому мне совсем непривычно думать в столбиках, вся природа противится :)
Элементарные преобразования часто со строками делаются, это факт. Их можно производить со столбцами, например, при вычислении определителя или ранга, но даже в последнем случае имеет смысл работать только со строками (если интересует не только ранг, но и базис).
Но при матричном формализме для векторов естественны столбцы. На самом деле это в природе вещей. В качестве проявлений этой природы можно привести такие примеры: когда вы линейную систему записываете в виде матричного уравнения, у вас и неизвестные, и свободные члены записываются в столбцах; когда вы рассматриваете действие линейного оператора в координатах, вы матрицу оператора умножаете на столбец координат вектора. Жалко, тензоры в вашу программу не входят, а то вы бы лучше почувствовали принцип «векторы в столбцы, ковекторы в строки».
Конечно, я приложу все усилия, чтобы выработать у вас правильный стереотип. :P :)
дё кестьё:
1) Если существует v так что T(v)=2v, значит у этой трансформации стопроцентов айгенвалью 2?
2) Как соотносятся трансформации матриц с обычными трансформациями? Т.е., вопрос такой: есть трансформация матриц nxn Т1(Х)=АХ и есть допустим трансформация Т2(x)=Аx из R^n в R^n, что у них общего и что у них различного? Матрица А та же. По идее, матричная трансформация может быть представлена как матрица n^2xn^2 и со стандартным базисом матричного пространства она будет диагональная. Значит ли, что все матричные трансформации можно представить диагональной матрицей?
1) Да, если v <> 0.
2) Интересная задача. Только в стандартном базисе пространства матриц («единичка», бегающая по элементам матрицы) оператор умножения на фиксированную матрицу будет иметь блочно-диагональную матрицу. Это соответствует разложению пространства матриц в прямую сумму n инвариантных подпространств.
Смотрите, как получается. Когда мы умножаем матрицы AX, мы строки A умножаем на столбцы X, то есть фактически отдельно применяем A к столбцам матрицы X. Можно рассмотреть представление пространства матриц в виде суммы n подпространств, где j-е подпространство состоит из матриц, все элементы которых вне j-го столбца равны 0. Легко видеть, что эта сумма прямая, и что каждое подпространство инвариантно относительно T. Кроме того, на каждом из этих подпространств оператор T действует как оператор умножения матрицы A на вектор, то есть в стандартных базисах этих подпространств матрицей оператора Т является A. Таким образом, в стандартном базисе T имеет матрицу
![<br />\begin{pmatrix}<br />A & 0 &\ldots & 0\\<br />0 & A & \ldots & 0\\<br />\hdotsfor{4}\\<br />0 & 0 & \ldots & A<br />\end{pmatrix}<br /> [tex]<br />\begin{pmatrix}<br />A & 0 &\ldots & 0\\<br />0 & A & \ldots & 0\\<br />\hdotsfor{4}\\<br />0 & 0 & \ldots & A<br />\end{pmatrix}<br />[/tex]](https://latex.codecogs.com/png.latex?<br />\begin{pmatrix}<br />A & 0 &\ldots & 0\\<br />0 & A & \ldots & 0\\<br />\hdotsfor{4}\\<br />0 & 0 & \ldots & A<br />\end{pmatrix}<br />)
Можно сказать, что T является «прямой суммой
![A \oplus \dots\oplus A [tex]A \oplus \dots\oplus A [/tex]](https://latex.codecogs.com/png.latex?A \oplus \dots\oplus A )
(n слагаемых)».
Вообще можно понять, что я написал? :what:
Цитата: Квас от марта 3, 2011, 23:39
Только в стандартном базисе пространства матриц («единичка», бегающая по элементам матрицы) оператор умножения на фиксированную матрицу будет иметь блочно-диагональную матрицу.
Почему же?.. Почему не диагональную?
Цитата: Квас от марта 3, 2011, 23:39
Вообще можно понять, что я написал? :what:
Наверное можно, но завтра на свежую голову ;D
Цитата: RawonaM от марта 3, 2011, 23:50
Цитата: Квас от Сегодня в 00:39ЦитироватьТолько в стандартном базисе пространства матриц («единичка», бегающая по элементам матрицы) оператор умножения на фиксированную матрицу будет иметь блочно-диагональную матрицу.
Почему же?.. Почему не диагональную?
Да попробуйте посмотреть на конкретном примере: матрицы второго порядка, и A какую-нибудь незамысловатую возьмите, например,
![<br />\begin{pmatrix}<br />1 & 2\\<br />3 & 4<br />\end{pmatrix}<br /> [tex]<br />\begin{pmatrix}<br />1 & 2\\<br />3 & 4<br />\end{pmatrix}<br />[/tex]](https://latex.codecogs.com/png.latex?<br />\begin{pmatrix}<br />1 & 2\\<br />3 & 4<br />\end{pmatrix}<br />)
Лучше один раз увидеть, чем сто раз услышать. :) Вообще, полезно всякие такие штуки смотреть на примерах. Тогда общая ситуация становится гораздо понятнее.
Цитата: Квас от марта 3, 2011, 23:39
1) Да, если v <> 0.
Если например у меня трехмерная диагонабельная (диагонируемая?..))) трансформация, дан базис, и даны два айгенвалью соответствующие двум элементам базиса, могу ли я заключить, что третий элемент базиса из подпространтсва третьего айгенвалью? Или он может быть вообще не принадлежащим ни к одному айгенвалью? Но ведь трансформация диагонабельная, значит все векторы принадлежат какому-то айгенвалью.
Цитата: Квас от марта 3, 2011, 23:53
Да попробуйте посмотреть на конкретном примере: матрицы второго порядка, и A какую-нибудь незамысловатую возьмите, например,
![\begin{pmatrix} 1 & 2\\ 3 & 4 \end{pmatrix} [tex] \begin{pmatrix} 1 & 2\\ 3 & 4 \end{pmatrix} [/tex]](https://latex.codecogs.com/png.latex? \begin{pmatrix} 1 & 2\\ 3 & 4 \end{pmatrix} )
Лучше один раз увидеть, чем сто раз услышать. :) Вообще, полезно всякие такие штуки смотреть на примерах. Тогда общая ситуация становится гораздо понятнее.
Ну, разве не верно, что в стандартном базисе тут матрица с диагональю 1 2 3 4, а остальные элементы нули?
Пусть
![E_{ij} [tex]E_{ij}[/tex]](https://latex.codecogs.com/png.latex?E_{ij})
— матрица, у которой на месте ij стоит 1, на остальных — нули. Эти матрицы и будут образовывать стандартный базис.
![<br />AE_{11}=<br />\begin{pmatrix}<br />1 & 2 \\<br />3 & 4<br />\end{pmatrix}<br />\begin{pmatrix}<br />1 & 0 \\<br />0 & 0<br />\end{pmatrix}<br />=<br />\begin{pmatrix}<br />1 & 0 \\<br />3 & 0<br />\end{pmatrix}<br />= E_{11} + 3 E_{21}<br /> [tex]<br />AE_{11}=<br />\begin{pmatrix}<br />1 & 2 \\<br />3 & 4<br />\end{pmatrix}<br />\begin{pmatrix}<br />1 & 0 \\<br />0 & 0<br />\end{pmatrix}<br />=<br />\begin{pmatrix}<br />1 & 0 \\<br />3 & 0<br />\end{pmatrix}<br />= E_{11} + 3 E_{21}<br />[/tex]](https://latex.codecogs.com/png.latex?<br />AE_{11}=<br />\begin{pmatrix}<br />1 & 2 \\<br />3 & 4<br />\end{pmatrix}<br />\begin{pmatrix}<br />1 & 0 \\<br />0 & 0<br />\end{pmatrix}<br />=<br />\begin{pmatrix}<br />1 & 0 \\<br />3 & 0<br />\end{pmatrix}<br />= E_{11} + 3 E_{21}<br />)
Какая же тут получится диагональная матрица?
Нет, что-то у вас запутано. Я с утра нарисую. Может когда нарисую, и мне яснее станет :)
Пока что надо спать, спокойной ночи :)
Bonne nuit. :)
Цитата: RawonaM от марта 3, 2011, 23:55
диагонабельная (диагонируемая?..)
Диагонализируемая — ?
Цитата: Тайльнемер от марта 4, 2011, 06:23
Цитироватьдиагонабельная (диагонируемая?..)
Диагонализируемая — ?
Вы меня спрашиваете? Я думал вы знаете точно :)
Цитата: RawonaM от марта 3, 2011, 23:55
Если например у меня трехмерная диагонабельная (диагонируемая?..))) трансформация, дан базис, и даны два айгенвалью соответствующие двум элементам базиса, могу ли я заключить, что третий элемент базиса из подпространтсва третьего айгенвалью? Или он может быть вообще не принадлежащим ни к одному айгенвалью?
Да, может не быть собственным вектором. Попробуйте привести простой пример.
Цитата: RawonaM от марта 3, 2011, 23:55
Но ведь трансформация диагонабельная, значит все векторы принадлежат какому-то айгенвалью.
Вообще говоря, не принадлежат.
Цитата: RawonaM от марта 4, 2011, 08:23
Цитата: Тайльнемер от марта 4, 2011, 06:23
Цитироватьдиагонабельная (диагонируемая?..)
Диагонализируемая — ?
Вы меня спрашиваете? Я думал вы знаете точно :)
Да, диагонализируемый оператор — это такой, который в некотором базисе может быть представлен диагональной матрицей, то есть у которого есть базис из собственных векторов.
А вообще у нас суржик ещё тот. ;D
Ну так научите меня русской терминологии :)
Трансформация — это оператор?
собственный вектор, собственное значение?..
Диагонализируемый я уже запомнил :)
Цитата: Квас от марта 4, 2011, 09:27
ЦитироватьНо ведь трансформация диагонабельная, значит все векторы принадлежат какому-то айгенвалью.
Вообще говоря, не принадлежат.
Почему же это? Если она диагонализируемая, значит базис может состоять только из собственных векторов, значит собственные подпространства покрывают все пространство. Чего я недопонимаю?
Цитата: Квас от марта 3, 2011, 23:59
Пусть
— матрица, у которой на месте ij стоит 1, на остальных — нули. Эти матрицы и будут образовывать стандартный базис.
![AE_{11}= \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix} \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 3 & 0 \end{pmatrix} = E_{11} + 3 E_{21} [tex] AE_{11}= \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix} \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 3 & 0 \end{pmatrix} = E_{11} + 3 E_{21} [/tex]](https://latex.codecogs.com/png.latex? AE_{11}= \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix} \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 3 & 0 \end{pmatrix} = E_{11} + 3 E_{21} )
Какая же тут получится диагональная матрица?
Действительно, что-то тут не сходится :)
Цитата: RawonaM от марта 4, 2011, 09:36
Ну так научите меня русской терминологии :)
Трансформация — это оператор?
собственный вектор, собственное значение?..
Диагонализируемый я уже запомнил :)
Суржик у нас классный! В особый восторг меня приводят ивритизмы. ;up:
Да, трансформация — это (линейный) оператор или (линейное) преобразование. Первый термин как-то привычней. Собственный вектор, собственное значение — так и есть. Множество собственных векторов, ассоциированных с некоторым собственным значением, плюс нулевой вектор называется собственным подпространством.
Цитата: RawonaM от марта 4, 2011, 09:36
Если она диагонализируемая, значит базис может состоять только из собственных векторов, значит собственные подпространства покрывают все пространство. Чего я недопонимаю?
Намёк: сумма собственных подпространств всегда прямая. То есть если сложить два собственных вектора с разными собственными значениями, мы точно получим не собственный вектор. А примеры можно простейшие придумать:
Получается, что вообще не бывает операторов, в которых все векторы — собственные?
Цитата: RawonaM от марта 4, 2011, 10:25
Получается, что вообще не бывает трансформаций, в которых все векторы — собственные?
Когда вы задаёте себе вопрос «бывает-не бывает», полезно сразу опробовать на простейших примерах. Что у нас всегда под рукой? Нулевой оператор, тождественный...
Цитата: Квас от марта 4, 2011, 10:18
Суржик у нас классный! В особый восторг меня приводят ивритизмы. ;up:
Вот вам парочка: диагонализируемая — лахсина (от алахсон=диагональ).
матрица — матри́ца. :)
мерхав — пространство. Менее пространственно чем русское слово, удобнее :)
Тода. :)
Цитата: Квас от марта 4, 2011, 10:27
ЦитироватьПолучается, что вообще не бывает трансформаций, в которых все векторы — собственные?
Когда вы задаёте себе вопрос «бывает-не бывает», полезно сразу опробовать на простейших примерах. Что у нас всегда под рукой? Нулевой оператор, тождественный...
Нулевой и тождественный получаются таки да, там 0 и 1 для всех векторов. В принципе, тогда берем любой скалярный оператор и у него тоже все пространство собственное. А еще есть такие?
Цитата: RawonaM от марта 4, 2011, 10:29
Нулевой и тождественный получаются таки да, там 0 и 1 для всех векторов. В принципе, тогда берем любой скалярный оператор и у него тоже все пространство собственное.
Правильно рассуждаете. :yes: (Я думаю, такой подход и на экзамене может пригодиться.)
Цитата: RawonaM от марта 4, 2011, 10:29
А еще есть такие?
Больше нет. Раз все векторы собственные, то всё пространство является собственным подпространством оператора, соответствующим некоторому собственному значению
a. Записав матрицу такого оператора в любом базисе, видим, что это оператор
aI.
Цитата: Квас от марта 4, 2011, 10:33
ЦитироватьА еще есть такие?
Больше нет. Раз все векторы собственные, то всё пространство является собственным подпространством оператора, соответствующим некоторому собственному значению a. Записав матрицу такого оператора в любом базисе, видим, что это оператор aI.
Значит если есть более одного собственного значения, то стопроцентов есть несобственные векторы?
Блин, хочется все это визуально представить. Где-то я встречал джава-аппликации с иллюстрациями этого всего.
Усе: http://ocw.mit.edu/ans7870/18/18.06/tools/Applets_sound_all/eigen_sound_all.html
:)
Здорово!
Вот ссылка на ресурсы этого курса:
http://ocw.mit.edu/courses/mathematics/18-06-linear-algebra-spring-2010/tools/
Было бы время, прослушал бы лекции. Просто, там намного обширнее материал, а когда знаешь слишком много, это плохо для экзамена. Да и времени нет слишком много знать.
Действительно, после наглядного представления утрясается получше. Если оператор вырожден, то в двухмерном пространстве он будет иметь вид прямой либо вообще все ноль.
Что такое дефектная матрица?? Не припоминаю такого.
Цитата: RawonaM от марта 4, 2011, 10:54
Что такое дефектная матрица?? Не припоминаю такого.
Вырожденная, наверно? Это в объяснениях было? Не обратил внимания.
Цитата: Квас от марта 4, 2011, 10:58
ЦитироватьЧто такое дефектная матрица?? Не припоминаю такого.
Вырожденная, наверно? Это в объяснениях было? Не обратил внимания.
Нет. Вот посмотрите: http://ocw.mit.edu/ans7870/18/18.06/tools/Applets_sound/eigen_sound_6.html
У этой матрицы дефектный айгенвалью.
В русском языке таких терминов нет. Может, defective в обычном смысле, то есть одного вектора как бы не хватает?
Там матрица
![<br />\begin{pmatrix}<br />2 & 1\\<br />0 & 2<br />\end{pmatrix},<br /> [tex]<br />\begin{pmatrix}<br />2 & 1\\<br />0 & 2<br />\end{pmatrix},<br />[/tex]](https://latex.codecogs.com/png.latex?<br />\begin{pmatrix}<br />2 & 1\\<br />0 & 2<br />\end{pmatrix},<br />)
характеристический многочлен для неё равен
^2[/tex]](https://latex.codecogs.com/png.latex?(2-\lambda)^2)
, то есть алгебраическая кратность собственного значения
![\lambda = 2 [tex]\lambda = 2[/tex]](https://latex.codecogs.com/png.latex?\lambda = 2)
равна 2. Этому значению соответствует одномерное собственное подпространство, то есть геометрическая кратность равна 1. Бывает. Общий закон в том, что геометрическая кратность не превосходит алгебраической.
А-а, выходит дефективная — это та, которая не диагонабельная.
Yeap:
Цитата: http://en.wikipedia.org/wiki/Defective_matrixIn linear algebra, a defective matrix is a square matrix that does not have a complete basis of eigenvectors, and is therefore not diagonalizable.
Цитата: RawonaM от марта 4, 2011, 11:13
А-а, выходит дефективная — это та, которая не диагонабельная.
Ну, не знаю. Критерий диагонализируемости: оператор диагонализируем тогда и только тогда, когда его характеристический многочлен раскладывается в основном поле на линейные множители, и алгебраическая кратность каждого собственного значения равна геометрической.
То есть существуют недиагонализируемые операторы, у которых алгебраические и геометрические кратности всех собственных значений совпадают. Примеры — поворот на плоскости или вокруг оси в пространстве.
Посмотрел первую лекцию Стрэнга по собственным значениям и векторам — супер! Конечно, у него в голове это все какая-то одна большая связанная теория, из чего он выбирает что в данный момент сказать, но польза от прослушивания такой лекции несоизмерима. Может все прослушаю.
По-моему это самое сложное из всего моего материала, айгенвекторы-таки.
Вам может понравятся их доски из MIT :) Такого количества досок в одной аудитории я не видел :)
Цитата: RawonaM от марта 4, 2011, 23:19
По-моему это самое сложное из всего моего материала, айгенвекторы-таки.
Думаю, да. Они как-то неинтуитивно появляются в курсе, мотивировки маловато. Смысл-то простой: те векторы, которые оператор растягивает. Но сразу непонятно, почему их нужно специально изучать. С годами привыкаешь, конечно...
Цитировать
In linear algebra, a defective matrix is a square matrix that does not have a complete basis of eigenvectors, and is therefore not diagonalizable.
Почему-то раньше не заметил. Следующее за этим моё сообщение смотрится странно. :-\
Цитата: Квас от марта 4, 2011, 23:23
ЦитироватьПо-моему это самое сложное из всего моего материала, айгенвекторы-таки.
Думаю, да. Они как-то неинтуитивно появляются в курсе, мотивировки маловато. Смысл-то простой: те векторы, которые оператор растягивает. Но сразу непонятно, почему их нужно специально изучать. С годами привыкаешь, конечно...
И много чего не говорят или недостаточно подчеркивают важность. Например, из лекции я узнал, что сумма диагонали равна сумме собственных значений, что детерминанта равна перемножению собственных значений, что если добавить к диагонали какое-то число, то собственные значения увеличатся на это число и т.п. Что недотягивающие размерности собственных пространств — это потому что они уходят в воображаемую часть комплесных чисел и т.п.
Завтра буду вторую лекцию смотреть.
Посмотрел Flash-ролик про влияние степеней матриц и влияние на айгенвалью (http://ocw.mit.edu/ans7870/18/18.06/tools/Power_method/power_method_flash.html), так и не понял, что на самом деле происходит. Можете вкратце пояснить?
При увеличении степени матрицы умножение на вектор сходится в айгенвалью оригинальной матрицы?
Цитата: RawonaM от марта 4, 2011, 23:31
Например, из лекции я узнал, что сумма диагонали равна сумме собственных значений, что детерминанта равна перемножению собственных значений, что если добавить к диагонали какое-то число, то собственные значения увеличатся на это число и т.п.
Это всё для диагонализируемых операторов.
Матрица оператора диагональна тогда и только тогда, когда базис состоит из собственных векторов. Это, конечно, почти тавтология. Отсюда написанные вами свойства оказываются очевидными для диагональных операторов. Но определитель оператора и его след (сумма диагональных элементов матрицы) являются
инвариантами, то есть не зависят от матричного представления.
Вопрос об инвариантах является важным. Один оператор можно задать разными матрицами в разных базисах, но у этих матриц есть общие свойства, которые характеризуют
сам оператор. К их числу принадлежат, например, определитель, след, характеристический многочлен.
Цитата: RawonaM от марта 4, 2011, 23:31
Что недотягивающие размерности собственных пространств — это потому что они уходят в воображаемую часть комплесных чисел и т.п.
Не совсем верно. Если бы так и было, то на комплексном пространстве каждый оператор был бы диагонализируем. Однако это не так: в комлексном случае канонической формой является жорданова (блочно-диагональная с блоками специальной структуры).
Цитата: RawonaM от марта 5, 2011, 08:55
Посмотрел Flash-ролик про влияние степеней матриц и влияние на айгенвалью, так и не понял, что на самом деле происходит. Можете вкратце пояснить?
Собственно, это скорее анализ, чем алгебра. В алгебре предельные переходы и прочая топология не рассматриваются.
Происходит вот что. Пусть A — диагонализируемый оператор, с матрицей в некотором базисе
![A_e = \mathrm{diag}(\lambda_1,\ldots,\lambda_n) [tex]A_e = \mathrm{diag}(\lambda_1,\ldots,\lambda_n)[/tex]](https://latex.codecogs.com/png.latex?A_e = \mathrm{diag}(\lambda_1,\ldots,\lambda_n))
Будем считать, что
![\lambda_1 [tex]\lambda_1[/tex]](https://latex.codecogs.com/png.latex?\lambda_1)
— самое большое собственное значение. Имеем:
![A^k_e = \mathrm{diag}(\lambda_1^k,\ldots,\lambda_n^k) [tex]A^k_e = \mathrm{diag}(\lambda_1^k,\ldots,\lambda_n^k)[/tex]](https://latex.codecogs.com/png.latex?A^k_e = \mathrm{diag}(\lambda_1^k,\ldots,\lambda_n^k))
и для любого вектора
![\mathbf x = \xi_1 \mathbf e_1 + \ldots + \xi_n \mathbf e_n [tex]\mathbf x = \xi_1 \mathbf e_1 + \ldots + \xi_n \mathbf e_n [/tex]](https://latex.codecogs.com/png.latex?\mathbf x = \xi_1 \mathbf e_1 + \ldots + \xi_n \mathbf e_n )
с
![\xi_1 \neq 0 [tex]\xi_1 \neq 0[/tex]](https://latex.codecogs.com/png.latex?\xi_1 \neq 0)
получаем
![A^k \mathbf x = \lambda_1^k \xi_1 \mathbf e_1 + \ldots + \lambda_1^k \xi_1 \mathbf e_n = \lambda_1^k \xi_1 \left( \mathbf e_1 + \frac{\xi_2}{\xi_1} \left( \frac{\lambda_2}{\lambda_1}\right)^k \mathbf e_2 + \ldots + \frac{\xi_n}{\xi_1} \left( \frac{\lambda_n}{\lambda_1}\right)^k \mathbf e_n\right) [tex] A^k \mathbf x = \lambda_1^k \xi_1 \mathbf e_1 + \ldots + \lambda_1^k \xi_1 \mathbf e_n = \lambda_1^k \xi_1 \left( \mathbf e_1 + \frac{\xi_2}{\xi_1} \left( \frac{\lambda_2}{\lambda_1}\right)^k \mathbf e_2 + \ldots + \frac{\xi_n}{\xi_1} \left( \frac{\lambda_n}{\lambda_1}\right)^k \mathbf e_n\right)[/tex]](https://latex.codecogs.com/png.latex? A^k \mathbf x = \lambda_1^k \xi_1 \mathbf e_1 + \ldots + \lambda_1^k \xi_1 \mathbf e_n = \lambda_1^k \xi_1 \left( \mathbf e_1 + \frac{\xi_2}{\xi_1} \left( \frac{\lambda_2}{\lambda_1}\right)^k \mathbf e_2 + \ldots + \frac{\xi_n}{\xi_1} \left( \frac{\lambda_n}{\lambda_1}\right)^k \mathbf e_n\right))
Согласно нашему предположению дроби
![\frac{\lambda_i}{\lambda_1} [tex]\frac{\lambda_i}{\lambda_1}[/tex]](https://latex.codecogs.com/png.latex?\frac{\lambda_i}{\lambda_1})
по модулю меньше 1, поэтому в выражении в скобках все члены, кроме первого, стремятся к 0.
Если вдруг
![\xi_1 = 0 [tex]\xi_1 = 0[/tex]](https://latex.codecogs.com/png.latex?\xi_1 = 0)
, то вектор будет мотаться по инвариантному подпространству, натянутому на
![\mathbf e_2, \ldots ,\mathbf e_n [tex]\mathbf e_2, \ldots ,\mathbf e_n [/tex]](https://latex.codecogs.com/png.latex?\mathbf e_2, \ldots ,\mathbf e_n )
, и картина та же самая, только в пространстве меньшего числа измерений.
Но ещё раз скажу, что собственно к линейной алгебре это не относится.
Цитата: Квас от марта 5, 2011, 11:12
Но ещё раз скажу, что собственно к линейной алгебре это не относится.
Но все-равно же интересно :)
Цитата: RawonaM от марта 5, 2011, 11:25
Цитата: Квас от Сегодня в 12:12ЦитироватьНо ещё раз скажу, что собственно к линейной алгебре это не относится.
Но все-равно же интересно :)
Это само собой. Всегда интересней, когда взаимодействие дисциплин. А здесь и выход на теорию динамических систем, и дифурами пахнет.
Если у двух матриц одинковый «типичный» полином, что можно о них сказать?
Выходит, что С над С — одномерное пространство, а С над R — двухмерное?
Цитата: RawonaM от марта 5, 2011, 12:14
Если у двух матриц одинковый «типичный» полином, что можно о них сказать?
Да вроде особо ничего. :donno: Мелочи всякие: след одинаковый, определитель одинаковый (это коэффициенты характеристического многочлена). Ничего более умного в голову пока не приходит.
Цитата: RawonaM от марта 5, 2011, 15:16
Выходит, что С над С — одномерное пространство, а С над R — двухмерное?
Совершенно верно.
Просмотрел за сегодня четыре лекции Стрэнга. Они никогда не записывает векторы горизонтально, вообще нигде и ни разу :)
То ли линейная алгебра это слишком легко, то ли я просто хорошо знал когда-то и теперь вспомнил, но в целом даже и вопросов нет, просто решаю и все. :donno:
Впрочем, как кончатся вопросы с ответами и надо будет решать без ответов, то наверное вопросы будут. А то даже обидно, что все понятно и нечего такого интересного обсудить. Наши беседы по анализу ведь вносили в большой клад в более глубокое теоретическое понимание.
Цитата: RawonaM от марта 1, 2011, 21:49
Нужно найти трансформацию
, так чтобы ImT=Sp{(1,1,0)} и kerT=Sp{(0,1,1,0),(1,1,0,0)}.
Как к этому подходить? Я нашел просто методом тыка, но не пойму систему, как нужно такое решать. Метод тыка не всегда работает.
Какое легкое задание некий Равонам не мог решить еще неделю назад!
Квас, я поражаюсь вашему терпению, честное слово. :) Если бы преподаватели такими были...
Цитата: Квас от марта 4, 2011, 10:33
Больше нет. Раз все векторы собственные, то всё пространство является собственным подпространством оператора, соответствующим некоторому собственному значению a. Записав матрицу такого оператора в любом базисе, видим, что это оператор aI.
Получается, что айгенвальюз дробят пространство на непересекающиеся подпространтва и только в том случае, когда есть одно айгенвалью, подпространтво одно и совпадает с надпространтвом, слелвательно любой вектор попадает под айгенвалью.
Цитата: RawonaM от марта 9, 2011, 14:32
То ли линейная алгебра это слишком легко, то ли я просто хорошо знал когда-то и теперь вспомнил, но в целом даже и вопросов нет, просто решаю и все.
Я думаю, это действительно легко для человека, который разобрался. :yes: Если решать будет нечего, можете задачник Кострикина (http://depositfiles.com/ru/files/wrrsauuxh) посмотреть. Там технических задач сравнительно мало, зато много интересных.
Цитата: RawonaM от марта 9, 2011, 17:47
Цитата: Квас от Март 4, 2011, 11:33ЦитироватьБольше нет. Раз все векторы собственные, то всё пространство является собственным подпространством оператора, соответствующим некоторому собственному значению a. Записав матрицу такого оператора в любом базисе, видим, что это оператор aI.
Получается, что айгенвальюз дробят пространство на непересекающиеся подпространтва и только в том случае, когда есть одно айгенвалью, подпространтво одно и совпадает с надпространтвом, слелвательно любой вектор попадает под айгенвалью.
Вы хотели сказать «прямая сумма». ;) Любые два подпространства содержат нулевой вектор, то есть пересекаются. Но импликация «собственное значение одно» ⇒ «любой ненулевой вектор является собственным» не верна. Контрпример — поворот в пространстве вокруг оси на pi/2.
Цитата: Квас от марта 9, 2011, 18:55
Вы хотели сказать «прямая сумма». ;) Любые два подпространства содержат нулевой вектор, то есть пересекаются.
Ну я имею в виду что "не пересекаются" в смысле кроме нуля. :)
Цитата: Квас от марта 9, 2011, 18:55
Но импликация «собственное значение одно» ⇒ «любой ненулевой вектор является собственным» не верна. Контрпример — поворот в пространстве вокруг оси на pi/2.
Нет, еще же должно быть что геометрическая кратность равняется размерности пространства, иначе нет смысла говорить. Я какбы только диагонализируемые подразумевал :)
Мне и так кажется, что вам всё понятно, так хотя бы к словам попридираться. ;D
Попридирайтесь, это хорошо развивает мозги, когда все уже понятно :) Вот когда непонятно, тогда может только запутать :)
Да кстати, я и неточно прочитал по обыкновению. У вас же чёрным по голубому было написано: «собственное подпространство совпадает с пространством».
Цитата: Квасзадачник Кострикина
Обнаружил классную опечатку:Цитировать§ II. Гипреповерхности второго порядка
Хорошо не на обложке. :)
Цитата: Довлатов
Тогда Фима продал часть своей уникальной библиотеки. На вырученные деньги он переиздал сочинение Фейхтвангера «Еврей Зюсс». Это был странный выбор для издательства под названием «Русская книга». Фима предполагал, что еврейская тема заинтересует нашу эмиграцию.
Книга вышла с единственной опечаткой. На обложке было крупно выведено: «ФЕЙХТВАГНЕР».
Кстати, гугл находит много «Фейтвагнеров».
Пару дней не позанимался, сразу чувствуется забывание :) Боюсь, что до 31-го числа все забуду. Надо неделю до экзамена сидеть только над этим предметом.
Хотя конечно теорвер и логика выковыривают мозки тоже неплохо.
Вопрос: набор решений для уравнения Ах=b (негомогенное) — пространство или нет?
Цитата: RawonaM от марта 12, 2011, 20:16
Вопрос: набор решений для уравнения Ах=b (негомогенное) — пространство или нет?
Неоднородное.Как надо такие задачи решать? Сначала рассмотреть очень простую систему (можно из одного уравнения с одним неизвестным). И если два-три примера показывают, что пространство, тогда попробовать доказать это.
Ну я думаю что не пространство. Если на число подомножить, то уже не решает.
Mon Dieu ! А почему не рассмотреть систему
![x_1 = 1 [tex]x_1 = 1[/tex]](https://latex.codecogs.com/png.latex?x_1 = 1)
? Моментально решаются все вопросы. Вот более сложный пример:
![x_1 + x_2 = 1. [tex]x_1 + x_2 = 1.[/tex]](https://latex.codecogs.com/png.latex?x_1 + x_2 = 1.)
Зато тут можно картинку на плоскости нарисовать и наглядно убедиться, что не пространство.
Цитата: Квас от марта 12, 2011, 20:44
Зато тут можно картинку на плоскости нарисовать и наглядно убедиться, что не пространство.
Это как?
Цитата: Квас от марта 12, 2011, 20:44
Вот более сложный пример:
![x_1 + x_2 = 1. [tex]x_1 + x_2 = 1.[/tex]](https://latex.codecogs.com/png.latex?x_1 + x_2 = 1.)
У меня как раз такое было и из этого и возник вопрос. Просто неоднородные были в са-амом начале курса, я уже оттуда ниче не помню, по привычке хотел ответ записать через базис... И тут меня осенило, а ведь ни хрена не пространство же :)
Цитата: RawonaM от марта 12, 2011, 20:47
Цитата: Квас от Сегодня в 21:44ЦитироватьЗато тут можно картинку на плоскости нарисовать и наглядно убедиться, что не пространство.
Это как?
Геометрически подпространства представляют собой плоскости (любой размерности), проходящие через нуль. Конечно, какую-то наглядность это имеет в случае размерности пространства не больше 3.
Моё уравнение в
![\mathbb R^2 [tex]\mathbb R^2[/tex]](https://latex.codecogs.com/png.latex?\mathbb R^2)
задаёт прямую, не проходящую через начало координате ⇒ не подпространство.
Цитата: Квас от марта 12, 2011, 20:51
Моё уравнение в
задаёт прямую, не проходящую через начало координате ⇒ не подпространство.
Что-то я смутно припоминаю, но не пойму, как это задает прямую.
Цитата: RawonaM от марта 12, 2011, 21:01
Цитата: Квас от Сегодня в 21:51ЦитироватьМоё уравнение в
задаёт прямую, не проходящую через начало координате ⇒ не подпространство.
Что-то я смутно припоминаю, но не пойму, как это задает прямую.
Уравнение
![y = kx + b [tex]y = kx + b[/tex]](https://latex.codecogs.com/png.latex?y = kx + b)
задаёт прямую, которая ось ординат пересекает в точке (0,b); k называется угловым коэффициентом, он равен углу наклона прямой к оси Ox.
Вертикальные прямые не могут быть так заданы.
Каждая прямая на плоскости может быть задана уравнением вида
![ax+by+c=0 [tex]ax+by+c=0[/tex]](https://latex.codecogs.com/png.latex?ax+by+c=0)
, в котором a и b не обращаются в 0 одновременно; каждое такое уравнение задаёт прямую.
Это начала аналитической геометрии, их знать не мешает.
Цитата: Квас от марта 12, 2011, 21:14
Это начала аналитической геометрии, их знать не мешает.
Не помешает, спасибо :) Я помню, что вроде как насчет прямой где-то у нас в начале учебника было, но там было сказано, что это не нужно для нашего курса и можно успешно забыть.
Прямые на плоскости — это классика. Как и кривые второго порядка, а в пространстве — прямые, плоскости и поверхности второго порядка. Например, у инженера Гарина был не гиперболоид, а эллиптический параболоид. :)
Это вы сейчас с кем разговаривали? ;D
Я тут для поддержки свежести мозга решаю задачки, но свежесть мозга исчезает за два дня. Альцгеймер уже близко?..
Вопрос: получается, что у любой вырожденной матрицы или неизоморфической трансформации есть собственное значение 0? Вроде банально, но для меня почему-то это только щас стало открытием.
Цитата: RawonaM от марта 18, 2011, 10:56
Вопрос: получается, что у любой вырожденной матрицы или неизоморфической трансформации есть собственное значение 0? Вроде банально, но для меня почему-то это только щас стало открытием.
У вырожденной матрицы — да. У линейного оператора, не являющегося изоморфизмом, не обязательно: например, можно рассмотреть стандартное вложение
![\mathbb R^1 \to \mathbb R^2 [tex]\mathbb R^1 \to \mathbb R^2[/tex]](https://latex.codecogs.com/png.latex?\mathbb R^1 \to \mathbb R^2)
.
Цитата: Квас от марта 18, 2011, 11:01
У вырожденной матрицы — да. У линейного оператора, не являющегося изоморфизмом, не обязательно: например, можно рассмотреть стандартное вложение
.
Ну да, я какбы подразумевал что с одинаковыми размерностями.
Вопрос: зачем нужен Грам-Шмидт?
Допустим я хочу найти ортонормальный базис. Беру первый вектор, нормирую его — это первый вектор нового базиса. Нахожу к нему ортогональное дополнение и даю ему стандартный базис (или любой другой ортонормальный).
Чем это будет отличаться от результата Грам-Шмидта?
Цитата: RawonaM от марта 24, 2011, 09:46
Вопрос: зачем нужен Грам-Шмидт?
Из любой системы эффективно делает ортогональную. Полученная ортогональная сохраняет некоторую связь с исходной: линейные оболочки любых первых k векторов этих систем одинаковые. Кстати, если некоторый вектор линейно выражается через предыдущие, Грам
м—Шмидт загоняют его в 0. Так что в целом полезно. Кроме того, при обычном изложении теории именно процесс Грам
ма—Шмидта доказывает существование ортогональных базисов.
Цитата: RawonaM от марта 24, 2011, 09:46
Допустим я хочу найти ортонормальный базис. Беру первый вектор, нормирую его — это первый вектор нового базиса. Нахожу к нему ортогональное дополнение и даю ему стандартный базис (или любой другой ортонормальный).
Процесс Грам
ма—Шмидта практически в этом и состоит.
Сначала заметим, что без базиса при вычислениях в любом случае не обойтись.
Вы говорите, нужно взять взять ненулевой вектор. Грам
м и Шмидт в этом качестве предлагают первый вектор базиса. В ортогональном дополнении стандартного базиса нет (потому что в линейных пространствах все базисы равноправны), поэтому построение ортогонального базиса в дополнении — та же самая задача. По-вашему, нужно выбрать там ненулевой вектор и рассмотреть его дополнение (в дополнении). Грам
м и Шмидт предлагают в качестве этого ненулевого вектора взять подправленный второй вектор базиса. И продолжаем в том же духе.
UPD: хотя бы «ассимптота» пока не пишу.
Квас, Грам с одной м должно быть. :)
Что-то я пока что не очень понял. Надо поразмыслить.
Цитата: RawonaM от марта 24, 2011, 10:12
Квас, Грам с одной м должно быть. :)
И то правда. ;)
Цитата: RawonaM от марта 24, 2011, 10:13
Что-то я пока что не очень понял. Надо поразмыслить.
А попробуйте своим способом найти какой-нибудь ортогональный базис.
Цитата: Квас от марта 24, 2011, 10:01
линейные оболочки любых первых k векторов этих систем одинаковые
Это что значит?
Цитата: Квас от марта 24, 2011, 10:15
ЦитироватьЧто-то я пока что не очень понял. Надо поразмыслить.
А попробуйте своим способом найти какой-нибудь ортогональный базис.
Ну вот смотрите. Дан базис {(1,1), (1,0)}.
Берем любой из этих векторов. Допустим (1,1).
Находим к нему ортогональное дополнение: х(1,-1), значит ортогональный базис — {(1,-1), (1,1)}
попытка нубмер два: {(1,1,1), (1,0,0), (0,1,0)}.
Берем первый вектор: (1,1,1) (нарочно беру небанальные случаи).
Ортогональное дополнение к (1,1,1) = нулевое пространтво матрицы
1 1 1
0 0 0
0 0 0
Значит (1,-1,0) и (1,0,-1).
Ага, эти векторы неортогональны, берем первый вектор (1,-1,0), находим к нему ортогональное дополнение из пространтва Sp{(1,-1,0), (1,0,-1)}.
э-э... понятно, зачем Грам-Шмидт :) Без рекурсии не обойдешся.
Но мне кажется алгоритм неоправданно усложнили.
Цитата: RawonaM от марта 24, 2011, 16:57
Но мне кажется алгоритм неоправданно усложнили.
Вы усложнили, да. :yes: Мало что фундаментальные решение уже считаете, так вот это ещё
Цитата: RawonaM от марта 24, 2011, 16:57
Ага, эти векторы неортогональны, берем первый вектор (1,-1,0), находим к нему ортогональное дополнение из пространтва Sp{(1,-1,0), (1,0,-1)}.
как вы имплементировать собираетесь? ;) А Грам—Шмидт — алгоритм в принципе простейший: подставить в формулы, получить ответ. Его геометрический смысл тоже прозрачный и является частным случаем вашего подхода.
Вот ещё пример. В пространстве
![P_n [tex]P_n[/tex]](https://latex.codecogs.com/png.latex?P_n)
многочленов степени, меньшей n, можно рассмотреть скалярное произведение
 = \int\limits_{-1}^1 f(x) g(x) \,dx.[/tex]](https://latex.codecogs.com/png.latex?(f,g) = \int\limits_{-1}^1 f(x) g(x) \,dx.)
Если к базису
![1,\ x,\ x^2,\ldots,\ x^{n-1} [tex]1,\ x,\ x^2,\ldots,\ x^{n-1}[/tex]](https://latex.codecogs.com/png.latex?1,\ x,\ x^2,\ldots,\ x^{n-1})
применить процесс ортогонализации, получаются так называемые многочлены Лежандра. Благодаря общим свойствам ортогонализации получается, что k-й многочлен Лежандра не зависит от выбора пространства
![P_n\ (n \geqslant k) [tex]P_n\ (n \geqslant k)[/tex]](https://latex.codecogs.com/png.latex?P_n\ (n \geqslant k))
, и что многочлены Лежандра
![p_0(x),\ p_1(x),\ldots, \ p_{k-1}(x) [tex]p_0(x),\ p_1(x),\ldots, \ p_{k-1}(x)[/tex]](https://latex.codecogs.com/png.latex?p_0(x),\ p_1(x),\ldots, \ p_{k-1}(x))
образуют базис в
![P_k [tex]P_k[/tex]](https://latex.codecogs.com/png.latex?P_k)
при любом k.
Цитата: Квас от марта 24, 2011, 17:50
А Грам—Шмидт — алгоритм в принципе простейший: подставить в формулы, получить ответ.
Так там же сложные рекурсивные формулы!
Я какбе уже не оспариваю его надобность, но просто он как-то прячет интуитивное понимание на машинальное вычисление формул, это мне и мешает.
Цитата: Квас от марта 24, 2011, 17:50
ЦитироватьАга, эти векторы неортогональны, берем первый вектор (1,-1,0), находим к нему ортогональное дополнение из пространтва Sp{(1,-1,0), (1,0,-1)}.
как вы имплементировать собираетесь? ;)
Дайте подумать. Разве не любое двухмерное подпротранство — плоскость? Эх, чем больше знаешь, тем больше понимаешь, что ты ниче не знаешь :(
Цитата: RawonaM от марта 24, 2011, 18:07
Так там же сложные рекурсивные формулы!
Какая рекурсия? Для вычисления каждого вектора используются только ранее вычисленные векторы (и исходная система). Геометрически тоже прозрачно: в качестве первого вектора берём e1, потом e2 делаем ортогональным к e1, двигая его конец по прямой, параллельной e1; потом e3 делаем ортогональным к плоскости e1e2, двигая его свободный конец параллельно этой плоскости, и т. д. Кстати, отсюда вывод: если первые несколько векторов ортогональны, то Грам—Шмидт оставляют их в покое; иначе говоря, можно ортогональные системы дополнять до ортогональных базисов.
Цитата: RawonaM от марта 24, 2011, 18:07
Цитата: Квас от Сегодня в 18:50ЦитироватьЦитироватьЦитироватьАга, эти векторы неортогональны, берем первый вектор (1,-1,0), находим к нему ортогональное дополнение из пространтва Sp{(1,-1,0), (1,0,-1)}.
как вы имплементировать собираетесь? ;)
Дайте подумать. Разве не любое двухмерное подпротранство — плоскость?
Ну да, плоскость. И посчитать это ортогональное дополнение, конечно, можно. Мне просто интересно, как вы это собираетесь делать. ;)
Закончились вопросы с ответами, теперь буду приставать с вопросами на которые не знаю ответа.
Вот меня мучает такое:
Есть нескалярная матрица А и трансформация Т(Х)=АХ.
Доказать или опровергнуть: если Х собственный вектор, то Х сингулярная матрица.
По-моему верно. Собственный вектор, это значит что для любого х и некоторого собственного значения л выполняется АХ=ЛхХ, подомножим на обратную от Х слева выходит А=лх для любого х, но ведь это может быть только если А=0, а нам сказали что А нескалярна. Значит Х сингулярна и у нее нет обратной.
Я правильно рассуждаю?
Цитата: Квас от марта 24, 2011, 18:34
Какая рекурсия? Для вычисления каждого вектора используются только ранее вычисленные векторы
Ну так это и есть рекурсия. Чтобы вычислить второй, надо вычислить первый.
Цитата: RawonaM от марта 24, 2011, 18:36
Цитата: Квас от Сегодня в 19:34ЦитироватьКакая рекурсия? Для вычисления каждого вектора используются только ранее вычисленные векторы
Ну так это и есть рекурсия. Чтобы вычислить второй, надо вычислить первый.
Ну, первый так и так надо было считать. Я не думал, что использование предыдущих результатов — непременно рекурсия. :-\
Цитата: RawonaM от марта 24, 2011, 18:34
Вот меня мучает такое:
Есть нескалярная матрица А и трансформация Т(Х)=АХ.
Доказать или опровергнуть: если Х собственный вектор, то Х сингулярная матрица.
По-моему верно. Собственный вектор, это значит что для любого х и некоторого собственного значения л выполняется АХ=ЛхХ, подомножим на обратную от Х слева выходит А=лх для любого х, но ведь это может быть только если А=0, а нам сказали что А нескалярна.
Я правильно рассуждаю?
Просто безупречно! :)
Цитата: Квас от марта 24, 2011, 18:34
ЦитироватьЦитироватьЦитироватьАга, эти векторы неортогональны, берем первый вектор (1,-1,0), находим к нему ортогональное дополнение из пространтва Sp{(1,-1,0), (1,0,-1)}.
как вы имплементировать собираетесь? ;)
Дайте подумать. Разве не любое двухмерное подпротранство — плоскость?
Ну да, плоскость. И посчитать это ортогональное дополнение, конечно, можно. Мне просто интересно, как вы это собираетесь делать. ;)
Вы меня заставляете думать :) Не просто это, как казалось. Надо еще подумать.
Цитата: Квас от марта 24, 2011, 18:40
Ну, первый так и так надо было считать. Я не думал, что использование предыдущих результатов — непременно рекурсия. :-\
Ну естественно, а как же. Это определение рекурсии и есть вроде.
Цитата: Квас от марта 24, 2011, 18:40
Просто безупречно! :)
Спасибо, успокоили :)
Я правда там вместо справа слева написал, но вы поняли :)
Цитата: RawonaM от марта 24, 2011, 18:50
Я правда там вместо справа слева написал, но вы поняли :)
Я даже не заметил. (http://www.kolobok.us/smiles/standart/don-t_mention.gif)
Цитата: RawonaM от марта 24, 2011, 18:47
ЦитироватьЦитироватьЦитироватьЦитироватьАга, эти векторы неортогональны, берем первый вектор (1,-1,0), находим к нему ортогональное дополнение из пространтва Sp{(1,-1,0), (1,0,-1)}.
как вы имплементировать собираетесь? ;)
Дайте подумать. Разве не любое двухмерное подпротранство — плоскость?
Ну да, плоскость. И посчитать это ортогональное дополнение, конечно, можно. Мне просто интересно, как вы это собираетесь делать. ;)
Вы меня заставляете думать :) Не просто это, как казалось. Надо еще подумать.
Не, что-то этот вопрос у меня слишком много времени отнимает. Или это слишком легко или слишком сложно :)
Цитата: RawonaM от марта 24, 2011, 18:59
Цитата: RawonaM от Сегодня в 19:47ЦитироватьЦитироватьЦитироватьЦитироватьЦитироватьЦитироватьЦитироватьЦитироватьЦитироватьАга, эти векторы неортогональны, берем первый вектор (1,-1,0), находим к нему ортогональное дополнение из пространтва Sp{(1,-1,0), (1,0,-1)}.
как вы имплементировать собираетесь? ;)
Дайте подумать. Разве не любое двухмерное подпротранство — плоскость?
Ну да, плоскость. И посчитать это ортогональное дополнение, конечно, можно. Мне просто интересно, как вы это собираетесь делать. ;)
Вы меня заставляете думать :) Не просто это, как казалось. Надо еще подумать.
Не, что-то этот вопрос у меня слишком много времени отнимает. Или это слишком легко или слишком сложно :)
Громоздко, мне кажется. Генеральную стратегию можно выбрать такую, мне кажется: искомое дополнение найти как пересечение данной плоскости с дополнением к вектору во всём пространстве. Правда, базис пересечения подпространств — пожалуй, одна из самых громоздких задач в линейной алгебре. Я учу студентов задавать эти подпространства системами и объединять системы, чтобы получить пересечение. Затем фундаментальная система решений, и ключик у нас в кармане.
Цитата: Квас от марта 24, 2011, 19:09
Громоздко, мне кажется. Генеральную стратегию можно выбрать такую, мне кажется: искомое дополнение найти как пересечение данной плоскости с дополнением к вектору во всём пространстве. Правда, базис пересечения подпространств — пожалуй, одна из самых громоздких задач в линейной алгебре. Я учу студентов задавать эти подпространства системами и объединять системы, чтобы получить пересечение. Затем фундаментальная система решений, и ключик у нас в кармане.
Понятно. Проще Грам-Шмидта использовать :)
У двух похожих матриц ведь одинаковый след, не так ли?
Допустим есть матрица с диагональю нулей, а всё остальное произвольное число а.
Нужно найти диагональную матрицу, похожую на эту. В ответах дана матрица diag((n-1)a, -a, -a,..., -a).
Как это? (n-1)a(-a)^(n-1) — для ненулевого а != 0.
Блин! След это ж сумма! Ну сё.
Которая
![T^{\mathsf T} AT [tex]T^{\mathsf T} AT[/tex]](https://latex.codecogs.com/png.latex?T^{\mathsf T} AT)
? Это
подобная. А задача интересная.
Да, неплохая. Это из экзамена 21-го февраля.
Вообще экзамен невероятно сложный был. Если мне такой дадут, я за себя не ручаюсь.
Цитата: Квас от марта 4, 2011, 11:19
Ну, не знаю. Критерий диагонализируемости: оператор диагонализируем тогда и только тогда, когда его характеристический многочлен раскладывается в основном поле на линейные множители, и алгебраическая кратность каждого собственного значения равна геометрической.
Мне тут попалась трансформация R3->R3, у которой характеристический многочлен: (1-t)
2(2-t)(a-t) (a любое вещественное).
В задании спрашивается, при каких а оператор диагонализируем.
Я вот не пойму, почему у меня четыре множителя вышло, если это трехмерный оператор?? При таком раскаладе никогда алгербраическая кратность не совпадет с геометрической.
Может я неправильно х. многочлен высчитал.
Цитата: RawonaM от марта 25, 2011, 10:33
Может я неправильно х. многочлен высчитал.
Вероятно. Он должен быть кубическим.
Дана T(x,y,z)=(x+y+az, 2y+az, x-y+az)
Матрица в стандантром базисе:
1 1 а
0 2 а
1 -1 а
вычитаем tI:
![\begin{pmatrix}<br />1-t & 1 & a\\<br />0 & 2-t & a\\<br />1 & -1 & a-t\\<br />\end{pmatrix} [tex] \begin{pmatrix}<br />1-t & 1 & a\\<br />0 & 2-t & a\\<br />1 & -1 & a-t\\<br />\end{pmatrix} [/tex]](https://latex.codecogs.com/png.latex? \begin{pmatrix}<br />1-t & 1 & a\\<br />0 & 2-t & a\\<br />1 & -1 & a-t\\<br />\end{pmatrix} )
Подомножим (1-t) к последней строке и вычтем из нее первую:
![\begin{pmatrix}<br />1-t & 1 & a\\<br />0 & 2-t & a\\<br />0 & t-2 & (a-t)(1-t)-a\\<br />\end{pmatrix} [tex] \begin{pmatrix}<br />1-t & 1 & a\\<br />0 & 2-t & a\\<br />0 & t-2 & (a-t)(1-t)-a\\<br />\end{pmatrix} [/tex]](https://latex.codecogs.com/png.latex? \begin{pmatrix}<br />1-t & 1 & a\\<br />0 & 2-t & a\\<br />0 & t-2 & (a-t)(1-t)-a\\<br />\end{pmatrix} )
Прибавим вторую к третьей
![\begin{pmatrix}<br />1-t & 1 & a\\<br />0 & 2-t & a\\<br />0 & 0 & (a-t)(1-t)\\<br />\end{pmatrix} [tex] \begin{pmatrix}<br />1-t & 1 & a\\<br />0 & 2-t & a\\<br />0 & 0 & (a-t)(1-t)\\<br />\end{pmatrix} [/tex]](https://latex.codecogs.com/png.latex? \begin{pmatrix}<br />1-t & 1 & a\\<br />0 & 2-t & a\\<br />0 & 0 & (a-t)(1-t)\\<br />\end{pmatrix} )
Итого (1-t)(2-t)(a-t)(1-t).
Теперь я кажется понял ошибку. Ведь когда я подомножил на (1-t), при этом и детерминанта подомножается на (1-t). Т.е. результат надо разделить на (1-t). Тогда вроде сходится.
Но я ж не могу так взять и поделить на (1-t), надо отделить случай что (1-t)=0.
Известно, что р(АB)<=min{р(А), р(B)} (р — ро, уровень матрицы).
А что ограничивает р(АB) снизу, кроме нуля? Я тут поразмыслил и пришел к выводу, что dimN(AB)<=dimN(A)+dimN(B) (N - нулевое пространство), значит p(AB)>=n-(dimN(A)+dimN(B)) (n — размер матриц).
Правильно я мыслю? Есть какие-то теоремы на этот счет?
Дан базис B={v1,v2...vn}. Дан некий вектор u и дано, что {v1+u,v2+u,...,vn+u} линейно зависима.
Доказать, что Sp{v1+u,v2+u,...,vn+u} = Sp{v1-v2,v2-v3,...,vn-1-vn} и что размерность этого подпространтва n-1.
Ниасилил вообще. :(
Цитата: RawonaM от марта 25, 2011, 10:51
Теперь я кажется понял ошибку. Ведь когда я подомножил на (1-t), при этом и детерминанта подомножается на (1-t). Т.е. результат надо разделить на (1-t). Тогда вроде сходится.
Но я ж не могу так взять и поделить на (1-t), надо отделить случай что (1-t)=0.
Можно на самом деле. Многочлен не функция, а формальное выражение, «картинка». Буква в многочлене не неопределённое число, а самостоятельная сущность, некий трансцендентный элемент. У вас был многочлен, вы умножили его на 1-t и получили (1-t)(2-t)(a-t)(1-t). Что умножалось? Конечно, (1-t)(2-t)(a-t). Это теорема о делении с остатком:
для любых многочленов f(x), g(x) над некоторым полем, g(x) ненулевой, существуют и единственны многочлены q(x) и r(x), такие, что f(x)=g(x)q(x)+r(x), и степень r(x) меньше степени g(x), или r(x) — нулевой многочлен.В любом случае можно раскрыть определитель по определению, а потом разложить на множители, поскольку ответ известен.
Расклад на множители утомительная штука :(
Столбиком можно делить, угадывая корни теоремой о корнях многочлена с рациональными коэффициентами. Иррациональные корни вряд ли дадут!
Цитата: RawonaM от марта 25, 2011, 12:12
Известно, что р(АB)<=min{р(А), р(B)} (р — ро, уровень матрицы).
А что ограничивает р(АB) снизу, кроме нуля? Я тут поразмыслил и пришел к выводу, что dimN(AB)<=dimN(A)+dimN(B) (N - нулевое пространство), значит p(AB)>=n-(dimN(A)+dimN(B)) (n — размер матриц).
Правильно я мыслю? Есть какие-то теоремы на этот счет?
Ага, всё так. Теорем таких вроде нет. Кстати, по-нашему это называется ранг и обозначается rank A.
Цитата: RawonaM от марта 25, 2011, 18:02
Расклад на множители утомительная штука :(
Окончательное-то разложение известно! Перемножьте скобки и запишите в обратном порядке. ;D
Цитата: Квас от марта 25, 2011, 18:11
ЦитироватьИзвестно, что р(АB)<=min{р(А), р(B)} (р — ро, уровень матрицы).
А что ограничивает р(АB) снизу, кроме нуля? Я тут поразмыслил и пришел к выводу, что dimN(AB)<=dimN(A)+dimN(B) (N - нулевое пространство), значит p(AB)>=n-(dimN(A)+dimN(B)) (n — размер матриц).
Правильно я мыслю? Есть какие-то теоремы на этот счет?
Ага, всё так. Теорем таких вроде нет. Кстати, по-нашему это называется ранг и обозначается rank A.
А как же доказать? Я интуитивно так рассуждал:
допустим матрица А представляет трансформацию и матрица В тоже. А скидывает в ноль какие-то мерности (или никакие), В скидывает в ноль что-то (или ничего). Если перемножаем (т.е. наложение транформаций), то максимум скинутых в ноль это что А скинет и что В скинет, других нулей неоткуда взять. Но блин, на экзамене это за доказательство не пройдет. Вообще боюсь экзамена, потому что я хоть и немножко материал знаю, не знаю что в книге написано, а что нет, на что ссылаться можно. У нас с этим стого. Либо ссылка, либо доказывай, но не докажешь ведь все во время экзамена.
Цитата: Квас от марта 25, 2011, 18:12
ЦитироватьРасклад на множители утомительная штука :(
Окончательное-то разложение известно! Перемножьте скобки и запишите в обратном порядке. ;D
А вы хитры однако :negozhe:
Цитата: RawonaM от марта 25, 2011, 16:09
Дан базис B={v1,v2...vn}. Дан некий вектор u и дано, что {v1+u,v2+u,...,vn+u} линейно зависима.
Доказать, что Sp{v1+u,v2+u,...,vn+u} = Sp{v1-v2,v2-v3,...,vn-1-vn} и что размерность этого подпространтва n-1.
Ниасилил вообще. :(
Пусть S1 = {v1+u,v2+u,...,vn+u}, S2 = {v1-v2,v2-v3,...,v
n-1-vn}. По условию S1 линейно зависима и требуется доказать, что Sp S1 = Sp S2.
Так как S1 линейно зависима и состоит из n векторов, то rank S1 <= n-1.
Легко видеть, что rank S2 = n-1. Для этого достаточно записать в столбцы координаты векторов этой системе в данном базисе и убедиться, что есть ненулевой минор порядка n-1.
Каждый вектор из S2 раскладывается по векторам из S1: v1-v2=(v1+u)-(v2+u) и т. д. Следовательно,
![\mathop{\mathrm Sp} S_2 \subset \mathop{\mathrm {Sp}} S_1 [tex]\mathop{\mathrm Sp} S_2 \subset \mathop{\mathrm {Sp}} S_1[/tex]](https://latex.codecogs.com/png.latex?\mathop{\mathrm Sp} S_2 \subset \mathop{\mathrm {Sp}} S_1)
, откуда получается
![<br />\mathop{\mathrm {rank}} S_1 = \dim \mathop{\mathrm {Sp}} S_1 \geqslant \dim \mathop{\mathrm {Sp}} S_2 = \mathop{\mathrm {rank}} S_2<br /> [tex]<br />\mathop{\mathrm {rank}} S_1 = \dim \mathop{\mathrm {Sp}} S_1 \geqslant \dim \mathop{\mathrm {Sp}} S_2 = \mathop{\mathrm {rank}} S_2<br />[/tex]](https://latex.codecogs.com/png.latex?<br />\mathop{\mathrm {rank}} S_1 = \dim \mathop{\mathrm {Sp}} S_1 \geqslant \dim \mathop{\mathrm {Sp}} S_2 = \mathop{\mathrm {rank}} S_2<br />)
Отсюда rank S1 = n-1, и поэтому Sp S1 = Sp S2.
Вот еще вопрос:
Даны U и W подпространства некого чего-то. Доказать
^{\perp}=U^{\perp}\cup W^{\perp}[/tex]](https://latex.codecogs.com/png.latex?(U \cap W)^{\perp}=U^{\perp}\cup W^{\perp})
.
Тоже не осилил.
Цитата: Квас от марта 25, 2011, 18:28
Каждый вектор из S2 раскладывается по векторам из S1: v1-v2=(v1+u)-(v2+u) и т. д. Следовательно,
, откуда получается
![\mathop{\mathrm {rank}} S_1 = \dim \mathop{\mathrm {Sp}} S_1 \geqslant \dim \mathop{\mathrm {Sp}} S_2 = \mathop{\mathrm {rank}} S_2 [tex] \mathop{\mathrm {rank}} S_1 = \dim \mathop{\mathrm {Sp}} S_1 \geqslant \dim \mathop{\mathrm {Sp}} S_2 = \mathop{\mathrm {rank}} S_2 [/tex]](https://latex.codecogs.com/png.latex? \mathop{\mathrm {rank}} S_1 = \dim \mathop{\mathrm {Sp}} S_1 \geqslant \dim \mathop{\mathrm {Sp}} S_2 = \mathop{\mathrm {rank}} S_2 )
Отсюда rank S1 = n-1, и поэтому Sp S1 = Sp S2.
Благодарю. Я бы до этого не додумался, все-таки сложно это.
Как-то вы странно rank в данном случае употребялете. Не матрица же. Метонимия такая получается.
Вопрос:
Существует ли оператор
![\inline T: \mathbb{C}^3 \rightarrow \mathbb{C}^3 [tex]\inline T: \mathbb{C}^3 \rightarrow \mathbb{C}^3[/tex]](https://latex.codecogs.com/png.latex?\inline T: \mathbb{C}^3 \rightarrow \mathbb{C}^3)
так что
![\inline \{0\} \subset kerT \subset ImT [tex]\inline \{0\} \subset kerT \subset ImT[/tex]](https://latex.codecogs.com/png.latex?\inline \{0\} \subset kerT \subset ImT)
? Имеется в виду обязательное включение, т.е. подмножества неравны.
Я говорю что да, ядро должно быть одномерное, образ двухмерный.
Напшыклад:
T(1,0,0)=0
T(0,1,0)=(1,0,0)
T(0,0,1)=(0,0,1)
Есть подозрение, что тут подвох. Зачем-то оператор комплексный.
Цитата: RawonaM от марта 25, 2011, 18:21
Я интуитивно так рассуждал:
допустим матрица А представляет трансформацию и матрица В тоже. А скидывает в ноль какие-то мерности (или никакие), В скидывает в ноль что-то (или ничего). Если перемножаем (т.е. наложение транформаций), то максимум скинутых в ноль это что А скинет и что В скинет, других нулей неоткуда взять.
Я точно так же.
Более формально можно так. Разложим пространство в прямую сумму
![V = N(A) \oplus U, [tex]V = N(A) \oplus U,[/tex]](https://latex.codecogs.com/png.latex?V = N(A) \oplus U,)
тогда A изоморфно отображает U на AV. Обозначим W подпространство, состоящее из таких
![v \in U [tex]v \in U[/tex]](https://latex.codecogs.com/png.latex?v \in U)
, что BAv=0. Очевидно (то есть надо остановиться и осмыслить ;)), что
![N(BA) = N(A) \oplus W. [tex]N(BA) = N(A) \oplus W.[/tex]](https://latex.codecogs.com/png.latex?N(BA) = N(A) \oplus W.)
По нашему определению получается, что
![AW = AV \cap N(B) [tex]AW = AV \cap N(B)[/tex]](https://latex.codecogs.com/png.latex?AW = AV \cap N(B))
,
поэтому
![\dim AW \leqslant \dim N(B) [tex]\dim AW \leqslant \dim N(B)[/tex]](https://latex.codecogs.com/png.latex?\dim AW \leqslant \dim N(B))
.
Но в силу указанной выше изоморфности имеем
![\dim AW = \dim W, [tex]\dim AW = \dim W,[/tex]](https://latex.codecogs.com/png.latex?\dim AW = \dim W,)
поэтому окончательно
Вообще вопрос, который это навеял, был таким: доказать или опровергнуть, что существуют матрицы А и В размером 3х3, так что AB=0 и rank(BA)=2.
Т.е. нужно доказывать, что не существуют. И вот как это делать-то?
Цитата: RawonaM от марта 25, 2011, 18:45
Как-то вы странно rank в данном случае употребялете. Не матрица же. Метонимия такая получается.
Ранг системы векторов — число векторов в произвольном базисе этой системы. Ранг матрицы — ранг системы её столбцов.
Цитата: RawonaM от марта 25, 2011, 18:33
Вот еще вопрос:
Даны U и W подпространства некого чего-то. Доказать
.
Тоже не осилил.
Опечатка: надо
^\perp = U^\perp + V^\perp[/tex]](https://latex.codecogs.com/png.latex?(U \cap W)^\perp = U^\perp + V^\perp)
Сначала покажем, что правая часть вложена в левую, а потом покажем, что размерность правой части не меньше размерности левой.
1)
![v \in U^\perp + V^\perp \Rightarrow v = u+w,\ u \in U^perp,\ w \in W\perp [tex]v \in U^\perp + V^\perp \Rightarrow v = u+w,\ u \in U^perp,\ w \in W\perp[/tex]](https://latex.codecogs.com/png.latex?v \in U^\perp + V^\perp \Rightarrow v = u+w,\ u \in U^perp,\ w \in W\perp)
Для произвольного
![x \in U\cap W [tex]x \in U\cap W[/tex]](https://latex.codecogs.com/png.latex?x \in U\cap W)
имеем:
![<br />(v,x) = (u+w,x) = (u,x) + (w,x) = 0.<br /> [tex]<br />(v,x) = (u+w,x) = (u,x) + (w,x) = 0.<br />[/tex]](https://latex.codecogs.com/png.latex?<br />(v,x) = (u+w,x) = (u,x) + (w,x) = 0.<br />)
Таким образом,
![v \in (U\cap W)^\perp [tex]v \in (U\cap W)^\perp[/tex]](https://latex.codecogs.com/png.latex?v \in (U\cap W)^\perp)
, включение доказано.
2) Из 1) следует неравенство
![\dim (U\cap W) ^\perp \geqslant \dim(U^\perp+W^\perp) [tex]\dim (U\cap W) ^\perp \geqslant \dim(U^\perp+W^\perp)[/tex]](https://latex.codecogs.com/png.latex?\dim (U\cap W) ^\perp \geqslant \dim(U^\perp+W^\perp))
Размерность пространства будем обозначать через n. Получаем:
![n-\dim U\cap W \geqslant \dim(U^\perp+W^\perp) [tex]n-\dim U\cap W \geqslant \dim(U^\perp+W^\perp)[/tex]](https://latex.codecogs.com/png.latex?n-\dim U\cap W \geqslant \dim(U^\perp+W^\perp))
![\dim U\cap W \leqslant n-\dim(U^\perp+W^\perp)\qquad(*) [tex]\dim U\cap W \leqslant n-\dim(U^\perp+W^\perp)\qquad(*)[/tex]](https://latex.codecogs.com/png.latex?\dim U\cap W \leqslant n-\dim(U^\perp+W^\perp)\qquad(*))
3) Сравним размерности.
![\dim (U^\perp + W^\perp) = \dim U^\perp + \dim W^\perp - \dim U^\perp \cap W ^\perp =\\= 2n - \dim U - \dim W- \dim U^\perp \cap W ^\perp [tex]\dim (U^\perp + W^\perp) = \dim U^\perp + \dim W^\perp - \dim U^\perp \cap W ^\perp =\\= 2n - \dim U - \dim W- \dim U^\perp \cap W ^\perp [/tex]](https://latex.codecogs.com/png.latex?\dim (U^\perp + W^\perp) = \dim U^\perp + \dim W^\perp - \dim U^\perp \cap W ^\perp =\\= 2n - \dim U - \dim W- \dim U^\perp \cap W ^\perp )
Оценим
![\dim U^\perp \cap W ^\perp [tex]\dim U^\perp \cap W ^\perp[/tex]](https://latex.codecogs.com/png.latex?\dim U^\perp \cap W ^\perp)
с помощью неравенства (*), применённого для ортогональных дополнений:
![\dim U^\perp \cap W ^\perp \leqslant n - \dim((U^\perp)^\perp + (W^\perp)^\perp) = n - \dim (U+W) [tex]\dim U^\perp \cap W ^\perp \leqslant n - \dim((U^\perp)^\perp + (W^\perp)^\perp) = n - \dim (U+W)[/tex]](https://latex.codecogs.com/png.latex?\dim U^\perp \cap W ^\perp \leqslant n - \dim((U^\perp)^\perp + (W^\perp)^\perp) = n - \dim (U+W))
Получаем:
Цитата: Квас от марта 25, 2011, 19:45
ЦитироватьКак-то вы странно rank в данном случае употребялете. Не матрица же. Метонимия такая получается.
Ранг системы векторов — число векторов в произвольном базисе этой системы.
А что такое система векторов? Я думал имеется в виду линейное пространство.
Цитата: RawonaM от марта 25, 2011, 19:02
Вопрос:
Существует ли оператор
так что
? Имеется в виду обязательное включение, т.е. подмножества неравны.
Я говорю что да, ядро должно быть одномерное, образ двухмерный.
Напшыклад:
T(1,0,0)=0
T(0,1,0)=(1,0,0)
T(0,0,1)=(0,0,1)
Есть подозрение, что тут подвох. Зачем-то оператор комплексный.
Да всё правильно. А комплексные операторы не могут быть сложнее вещественных, у них жорданова форма.
Цитата: Квас от марта 25, 2011, 19:45
Опечатка: надо
^\perp = U^\perp + V^\perp[/tex]](https://latex.codecogs.com/png.latex?(U \cap W)^\perp = U^\perp + V^\perp)
А вот и не очепятка. Так и написано - подкова вверх! :)
Цитата: Квас от марта 25, 2011, 19:51
Да всё правильно.
Благодарю.
Цитата: Квас от марта 25, 2011, 19:51
А комплексные операторы не могут быть сложнее вещественных, у них жорданова форма.
Не слышал про жорданову форму еще.
Цитата: RawonaM от марта 25, 2011, 19:22
Вообще вопрос, который это навеял, был таким: доказать или опровергнуть, что существуют матрицы А и В размером 3х3, так что AB=0 и rank(BA)=2.
Т.е. нужно доказывать, что не существуют. И вот как это делать-то?
Пусть есть такие матрицы. Если одна из них невырождена, то вторая — нулевая (т. к. AB=0), чего быть не может. Значит, обе вырожденные, ранги не больше 2. Если у одной ранг меньше 2, то невозможно rank(BA)=2. Значит, оба ранга равны 2. Тогда ядра соответствующих операторов одномерные и невозможно AB=0 по нашей с вами великой теореме. Или можно без теоремы следующим образом. Пусть U — дополнительное подпространство к Ker A, dim U=2. Так как dim Im B=2, то
![<br />\dim \mathop{\mathrm{Im}} B \cap U = \dim \mathop{\mathrm{Im}} B + \dim U - \dim(\mathop{\mathrm{Im}} B+U)\geqslant 2 + 2 - 3 = 1<br /> [tex]<br />\dim \mathop{\mathrm{Im}} B \cap U = \dim \mathop{\mathrm{Im}} B + \dim U - \dim(\mathop{\mathrm{Im}} B+U)\geqslant 2 + 2 - 3 = 1<br />[/tex]](https://latex.codecogs.com/png.latex?<br />\dim \mathop{\mathrm{Im}} B \cap U = \dim \mathop{\mathrm{Im}} B + \dim U - \dim(\mathop{\mathrm{Im}} B+U)\geqslant 2 + 2 - 3 = 1<br />)
Следовательно, существует ненулевой вектор
![\inline v \in \dim \mathop{\mathrm{Im}} B \cap U, [tex]\inline v \in \dim \mathop{\mathrm{Im}} B \cap U,[/tex]](https://latex.codecogs.com/png.latex?\inline v \in \dim \mathop{\mathrm{Im}} B \cap U,)
v = Bu. Имеем:
![ABu = Av \neq 0 [tex]ABu = Av \neq 0[/tex]](https://latex.codecogs.com/png.latex?ABu = Av \neq 0)
,
так как
![\inline v \in U, \ v \neq 0 [tex]\inline v \in U, \ v \neq 0[/tex]](https://latex.codecogs.com/png.latex?\inline v \in U, \ v \neq 0)
.
Цитата: RawonaM от марта 25, 2011, 19:49
Цитата: Квас от Сегодня в 20:45ЦитироватьЦитироватьЦитироватьКак-то вы странно rank в данном случае употребялете. Не матрица же. Метонимия такая получается.
Ранг системы векторов — число векторов в произвольном базисе этой системы.
А что такое система векторов? Я думал имеется в виду линейное пространство.
Согласно нашим лекциям, система отличается от множества тем, что векторы в ней могут повторяться. Однако это несущественно. Базисы определяются не только для пространств, но и для любых систем (или множеств) векторов, в том числе конечных.
Цитата: RawonaM от марта 25, 2011, 19:52
Цитата: Квас от Сегодня в 20:45ЦитироватьОпечатка: надо
^\perp = U^\perp + V^\perp[/tex]](https://latex.codecogs.com/png.latex?(U \cap W)^\perp = U^\perp + V^\perp)
А вот и не очепятка. Так и написано - подкова вверх! :)
Значит, у них очепятка. Хотя бы потому, что объединение подпространств не обязано быть подпространством.
Кажется, я никаких вопросов не пропустил?
Цитата: Квас от марта 25, 2011, 20:08
Кажется, я никаких вопросов не пропустил?
Да вроде нет. Спасибо :) Щас еще будут :)
Цитата: Квас от марта 25, 2011, 20:08
Значит, у них очепятка. Хотя бы потому, что объединение подпространств не обязано быть подпространством.
Хм... А я столько времени бьюсь об нее... Странно.
Цитата: Квас от марта 25, 2011, 20:06
Согласно нашим лекциям, система отличается от множества тем, что векторы в ней могут повторяться. Однако это несущественно. Базисы определяются не только для пространств, но и для любых систем (или множеств) векторов, в том числе конечных.
А что такое базис для конечного множества?
Цитата: RawonaM от марта 25, 2011, 20:28
Цитата: Квас от Сегодня в 21:06ЦитироватьСогласно нашим лекциям, система отличается от множества тем, что векторы в ней могут повторяться. Однако это несущественно. Базисы определяются не только для пространств, но и для любых систем (или множеств) векторов, в том числе конечных.
А что такое базис для конечного множества?
То же самое: линейно независимая подсистема, через которую выражается любой вектор исходной системы.
Это всё активно используется в теории матриц. Поэтому удобно работать с системами, ведь столбцы (или строки) могут быть одинаковыми.
Цитата: Квас от марта 25, 2011, 20:45
То же самое: линейно независимая подсистема, через которую выражается любой вектор исходной системы.
То есть как? Нужно ж задать правило какое-то, что ли. Непонятно.
Доказать, что не существует квадратных матриц А и В, так что АВ-ВА=I.
Не получается.
Цитата: RawonaM от марта 25, 2011, 20:52
Цитата: Квас от Сегодня в 21:45ЦитироватьТо же самое: линейно независимая подсистема, через которую выражается любой вектор исходной системы.
То есть как? Нужно ж задать правило какое-то, что ли. Непонятно.
Выражаются в виде линейных комбинаций. Дословно то же самое определение.
Цитата: RawonaM от марта 25, 2011, 21:08
Доказать, что не существует квадратных матриц А и В, так что АВ-ВА=I.
Не получается.
Ага, знаю такую. Есть свойство tr AB = tr BA (можно проверить прямым вычислением; след — сумма диагональных элементов), поэтому
tr(AB - BA) = 0, tr I = n.
Цитата: Квас от марта 25, 2011, 21:13
Выражаются в виде линейных комбинаций. Дословно то же самое определение.
Так и что, разве не пространство получается? Почему конечное множество-то?
Цитата: Квас от марта 25, 2011, 21:13
Ага, знаю такую. Есть свойство tr AB = tr BA (можно проверить прямым вычислением; след — сумма диагональных элементов), поэтому
tr(AB - BA) = 0, tr I = n.
Да, там в первом пункте как раз надо было доказать tr AB = tr BA :)
Я правда не понял, что второй пункт через первый решается, не доперло.
Цитата: RawonaM от марта 25, 2011, 21:27
Цитата: Квас от Сегодня в 22:13ЦитироватьВыражаются в виде линейных комбинаций. Дословно то же самое определение.
Так и что, разве не пространство получается? Почему конечное множество-то?
Откуда пространство получится? :??? Беру систему из трёх векторов (0,1,2,3,4), (0,1,2,3,5), (0,2,4,6,8). У этой системы есть базисы (например, первый и второй векторы: подсистема линейно независима, и все три вектора через неё линейно выражаются). Никакие другие векторы при этом не рассматриваются.
Цитата: Квас от марта 25, 2011, 21:38
Откуда пространство получится? :??? Беру систему из трёх векторов (0,1,2,3,4), (0,1,2,3,5), (0,2,4,6,8). У этой системы есть базисы (например, первый и второй векторы: подсистема линейно независима, и все три вектора через неё линейно выражаются). Никакие другие векторы при этом не рассматриваются.
А, ясно. Это же просто набор линейно зависимых векторов. Не понимаю слова "система".
Тогда, наверно, набор = система. Столбцы матрицы
![<br />\begin{pmatrix}<br />1 & 1\\<br />0 & 0<br />\end{pmatrix}<br /> [tex]<br />\begin{pmatrix}<br />1 & 1\\<br />0 & 0<br />\end{pmatrix}<br />[/tex]](https://latex.codecogs.com/png.latex?<br />\begin{pmatrix}<br />1 & 1\\<br />0 & 0<br />\end{pmatrix}<br />)
образуют систему из двух векторов, но если составить из них множество, получится одноэлементное {(1,0)}.
Система — это типа множества, но с возможными повторениями? :)
Тут вот некий странный вопрос попался.
Даны векторы u1, u2, v1, v2 и известно, что
![\inline Sp\{v_1,v_2\} \cap Sp\{u_1, u_2\} \ne \{0\} [tex]\inline Sp\{v_1,v_2\} \cap Sp\{u_1, u_2\} \ne \{0\}[/tex]](https://latex.codecogs.com/png.latex?\inline Sp\{v_1,v_2\} \cap Sp\{u_1, u_2\} \ne \{0\})
и что
![\inline v_1 \notin Sp\{u_1,u_2,v_2\} [tex]\inline v_1 \notin Sp\{u_1,u_2,v_2\}[/tex]](https://latex.codecogs.com/png.latex?\inline v_1 \notin Sp\{u_1,u_2,v_2\})
. Найти базис для
![\inline Sp\{v_1,v_2\} [tex]\inline Sp\{v_1,v_2\}[/tex]](https://latex.codecogs.com/png.latex?\inline Sp\{v_1,v_2\})
.
Ответ же
![\inline Sp\{v_1,v_2\} [tex]\inline Sp\{v_1,v_2\}[/tex]](https://latex.codecogs.com/png.latex?\inline Sp\{v_1,v_2\})
дэска?
Не пойму в чем подвох.
Вот такой интересный вопрос попался:
Даны два подпространтсва Rn V={(a1...an)|a1+...+an=0} и U={(a1...an)|a1=a2=...=an}.
А также определяем для любого подпрастранства Rn W подпространство квадратных вещественных матриц
![W_d = \{A \in M^R| dA \in W\} [tex]W_d = \{A \in M^R| dA \in W\}[/tex]](https://latex.codecogs.com/png.latex?W_d = \{A \in M^R| dA \in W\})
, где dA — диагональ матрицы.
1) Верно ли
![M^R = U_d \oplus V_d [tex]M^R = U_d \oplus V_d[/tex]](https://latex.codecogs.com/png.latex?M^R = U_d \oplus V_d)
?
2) Верно ли
![M^R = U_d + V_d [tex]M^R = U_d + V_d[/tex]](https://latex.codecogs.com/png.latex?M^R = U_d + V_d)
?
На первый вопрос я легко ответил (пересечение неравно нулю), а вот со вторым застрял. Как вообще определить размерность таких пространств? Vd допустим (n-1)n, мне так кажется, а Ud тогда что? Запутался.
По идее должно быть верно, ведь V+U=Rn, почему бы им не покрывать все матрицы. Но до конца не понимаю, что тут происходит.
Цитата: RawonaM от марта 26, 2011, 10:52
На первый вопрос я легко ответил (пересечение неравно нулю), а вот со вторым застрял. Как вообще определить размерность таких пространств? Vd допустим (n-1)n, мне так кажется, а Ud тогда что? Запутался.
Я думаю, проще не через размерности, а просто попробовать представить данную матрицу A в виде суммы матрицы с нулевым следом и с одним элементом на диагонали. Это просто: в качестве второй матрицы достаточно взять -(tr A)/nI.
Размерность можно было бы посчитать как размерность образа плюс размерность ядра, но необходимости нет.
Цитата: RawonaM от марта 26, 2011, 00:04
Тут вот некий странный вопрос попался.
Даны векторы u1, u2, v1, v2 и известно, что
и что
. Найти базис для
.
Ответ же
дэска?
Не пойму в чем подвох.
Вопрос в ранге системы {v1, v2}. Если бы он был 0, то оба вектора были бы нулевые, что противоречит первому условию. Если он 1, то из первого условия следует, что Sp{v1, v2} содержится в Sp{u1, u2}, а это противоречит второму условию. Значит, он равен 2, и v1, v2 образуют базис.
Цитата: RawonaM от марта 25, 2011, 22:20
Система — это типа множества, но с возможными повторениями? :)
Ага. У нас в лекциях было так и не без причины. Хотя понятие не очень стандартное; что там в учебниках, сейчас не вспомню.
Цитата: Квас от марта 26, 2011, 11:10
Я думаю, проще не через размерности, а просто попробовать представить данную матрицу A в виде суммы матрицы с нулевым следом и с одним элементом на диагонали. Это просто: в качестве второй матрицы достаточно взять -(tr A)/nI.
Ага, кажется понял. Правда неясно, как разложение делать.
(х1,х2..хn) =??
Цитата: RawonaM от марта 26, 2011, 11:31
Цитата: Квас от Сегодня в 12:10ЦитироватьЯ думаю, проще не через размерности, а просто попробовать представить данную матрицу A в виде суммы матрицы с нулевым следом и с одним элементом на диагонали. Это просто: в качестве второй матрицы достаточно взять -(tr A)/nI.
Ага, кажется понял. Правда неясно, как разложение делать.
Со знаком обдёрнулся.
0 1
0 0
Эта матрица ведь не диагонализируема, правильно?
Тут вопрос такой: если у двух матриц одинаковый хар. многочлен, и одна из них диагонализируема, то вторая тоже или не обязательно?
Вроде как понятно, что они не обязательно подобны, но вдруг вторая подобна другой диагональной матрице.
Я привел в контрпример.
0 0
0 0
и
0 1
0 0
Правильно?
Цитата: RawonaM от марта 27, 2011, 12:50
0 1
0 0
Эта матрица ведь не диагонализируема, правильно?
Да. У неё собственное значение 0, а если бы она была диагонализируема, то на диагонали было бы отличное от 0 число (т. к. ранг равен 1), то есть было бы ненулевое собственное значение.
Цитата: RawonaM от марта 27, 2011, 12:50
Тут вопрос такой: если у двух матриц одинаковый хар. многочлен, и одна из них диагонализируема, то вторая тоже или не обязательно?
Вроде как понятно, что они не обязательно подобны, но вдруг вторая подобна другой диагональной матрице.
Я привел в контрпример.
0 0
0 0
и
0 1
0 0
Правильно?
Абсолютно.
Цитата: Квас от марта 27, 2011, 16:18
Да. У неё собственное значение 0, а если бы она была диагонализируема, то на диагонали было бы отличное от 0 число (т. к. ранг равен 1), то есть было бы ненулевое собственное значение.
И то правда.
Благодарю.
В симметричной матрице по диагонали располагаются собственные значения?
Цитата: RawonaM от марта 29, 2011, 18:10
В симметричной матрице по диагонали располагаются собственные значения?
Вообще говоря, нет. В диагональной.
Цитата: Квас от марта 29, 2011, 18:12
ЦитироватьВ симметричной матрице по диагонали располагаются собственные значения?
Вообще говоря, нет. В диагональной.
В диагональной оно понятно. А что в симметричной?
Что-то я смутно припоминаю.
Цитата: RawonaM от марта 29, 2011, 18:13
Цитата: Квас от Сегодня в 19:12ЦитироватьЦитироватьЦитироватьВ симметричной матрице по диагонали располагаются собственные значения?
Вообще говоря, нет. В диагональной.
В диагональной оно понятно. А что в симметричной?
Что-то я смутно припоминаю.
В симметричной может быть всё что угодно. Насчёт них приходит на ум: в вещественном пространстве оператор симметрический тогда и только тогда, когда его матрица в любом ортогональном базисе симметрическая; любой симметрический оператор имеет в некотором ортогональном базисе диагональный вид; на матричном языке это означает, что любая симметрическая матрица подобна диагональной, причём подобие осуществляется ортогональной матрицей; на языке квадратичных форм это означает, что квадратичная форма на евклидовом пространстве в некотором ортогональном базисе имеет канонический вид.
На вики пишут еще, что у симметричной матрицы ортогональные собственные пространства (и наоборот, т.е. iff).
Что-то Стрэнг говорил про симметничные матрицы интересное, не могу вспомнить. У какой-то матрицы были в диагонали собственные значения (кроме диагональной). Может у треугольной?
Цитата: RawonaM от марта 29, 2011, 18:29
На вики пишут еще, что у симметричной матрицы ортогональные собственные пространства (и наоборот, т.е. iff).
Ортогональные пространства — да, это следует из ортодиагонализируемости (основное свойство самосопряжённых операторов). В обратную сторону? :-\ Если предположить диагонализируемость...
Цитата: RawonaM от марта 29, 2011, 18:29
Что-то Стрэнг говорил про симметничные матрицы интересное, не могу вспомнить. У какой-то матрицы были в диагонали собственные значения (кроме диагональной). Может у треугольной?
Да, у треугольной, потому что определитель — произведение диагональных элементов.
Цитата: Квас от марта 29, 2011, 18:42
ЦитироватьНа вики пишут еще, что у симметричной матрицы ортогональные собственные пространства (и наоборот, т.е. iff).
Ортогональные пространства — да, это следует из ортодиагонализируемости (основное свойство самосопряжённых операторов). В обратную сторону? :-\ Если предположить диагонализируемость...
Ну вот, так пишут:
ЦитироватьAnother way of stating the real spectral theorem is that the eigenvectors of a symmetric matrix are orthogonal. More precisely, a matrix is symmetric if and only if it has an orthonormal basis of eigenvectors.
Цитата: Квас от марта 29, 2011, 18:42
ЦитироватьЧто-то Стрэнг говорил про симметничные матрицы интересное, не могу вспомнить. У какой-то матрицы были в диагонали собственные значения (кроме диагональной). Может у треугольной?
Да, у треугольной, потому что определитель — произведение диагональных элементов.
Ага, это полезно помнить.
Блин, боюсь экзамена. :(
Цитировать
a matrix is symmetric if and only if it has an orthonormal basis of eigenvectors
Это я и назвал непроизносимым словом «ортодиагонализируемость». :) В такой формулировке верно.
Просто, например, если собственных подпространств вообще нет (оператор поворота на плоскости, например), то все собственные подпространства ортогональны.
Цитата: RawonaM от марта 29, 2011, 18:48
Блин, боюсь экзамена. :(
Все боятся, ничего не поделаешь. :) Не переживайте.
Цитата: Квас от марта 29, 2011, 18:50
ЦитироватьБлин, боюсь экзамена. :(
Все боятся, ничего не поделаешь. :) Не переживайте.
Я никогда не боялся. Только инфи и вот алгебру че-то. Потому как если не сдам, надо опять целый семестр терять на нее. Вроде как и знаю, вроде как и не знаю. На везение.
Цитата: Квас от марта 29, 2011, 18:50
Цитироватьa matrix is symmetric if and only if it has an orthonormal basis of eigenvectors
Это я и назвал непроизносимым словом «ортодиагонализируемость». :) В такой формулировке верно.
Просто, например, если собственных подпространств вообще нет (оператор поворота на плоскости, например), то все собственные подпространства ортогональны.
Что-то я не въезжаю в разницу. Симметричная матрица всегда же диагонализируема, значит всегда есть собственные подпространства. А если базис пространств ортогональный, значит это симметричная матрица. Не так?
Неверно, что если все собственные подпространства ортогональны, то оператор самосопряжённый. Пример: оператор поворота на плоскости на угол, не кратный пи.
Цитата: Квас от марта 29, 2011, 18:58
Пример: оператор поворота на плоскости на угол, не кратный пи.
Как это в матрице выглядит? А-то у меня понятия нет, как операторы поворота представлять.
Цитата: Квас от марта 29, 2011, 18:58
Неверно, что если все собственные подпространства ортогональны, то оператор самосопряжённый.
А что такое самосопряженный?
Я все-таки не пойму... Написано же, что если у матрицы ортонормальный базис, значит она симметрична, не так разве?
Цитата: RawonaM от марта 29, 2011, 19:01
Я все-таки не пойму... Написано же, что если у матрицы ортонормальный базис, значит она симметрична, не так разве?
Да.
Цитата: RawonaM от марта 29, 2011, 18:29
На вики пишут еще, что у симметричной матрицы ортогональные собственные пространства (и наоборот, т.е. iff).
Нет.
Цитата: RawonaM от марта 29, 2011, 19:01
Цитата: Квас от Сегодня в 19:58ЦитироватьПример: оператор поворота на плоскости на угол, не кратный пи.
Как это в матрице выглядит? А-то у меня понятия нет, как операторы поворота представлять.
В каком смысле представлять? Берёте плоскость, поворачиваете на 30° вокруг начала координат — вот и оператор поворота. Ясно, что никакие векторы не сохраняют направление, если угол поворота не кратен пи. Матрица поворота на угол фи (в положительном направлении) в ортонормированном базисе имеет вид
![<br />\begin{pmatrix}<br />\cos \varphi & - \sin \varphi\\<br />\sin \varphi & \cos \varphi<br />\end{pmatrix}<br /> [tex]<br />\begin{pmatrix}<br />\cos \varphi & - \sin \varphi\\<br />\sin \varphi & \cos \varphi<br />\end{pmatrix}<br />[/tex]](https://latex.codecogs.com/png.latex?<br />\begin{pmatrix}<br />\cos \varphi & - \sin \varphi\\<br />\sin \varphi & \cos \varphi<br />\end{pmatrix}<br />)
Матрица заслуженная, полезно её хотя бы приблизительно представлять. Из геометрических соображений получается на раз.
Цитата: RawonaM от марта 29, 2011, 19:01
Цитата: Квас от Сегодня в 19:58ЦитироватьНеверно, что если все собственные подпространства ортогональны, то оператор самосопряжённый.
А что такое самосопряженный?
(Ax, y) = (x, Ay)
В вещественном случае называется симметрическим, в комплексном — эрмитовым.
В последние дни я о-очень торможу, не понимаю что произошло. :(
Вопрос: есть базис Rn {v1,...vn}, нужно доказать, что если v1-vn ортогонален системе {v1,...vn-1}, тогда v1+vn неортогонален ей.
Мое доказательство:
Допустим v1-vn ортогонален {v1,...vn-1} и v1+vn ортогонален {v1,...vn-1}.
Из данной ортогональности следует v1(v1-vn)=0 => v1v1=v1vn, а также
v1(v1+vn)=0 => v1v1=-v1vn
Т.е. -v1vn=v1v1=v1vn.
-v1vn=v1vn
А это возможно только если v1=0 или vn=0, в противоречие с бытием этих векторов элементами базиса.
Правильно?
Цитата: Квас от марта 29, 2011, 19:15
В каком смысле представлять? Берёте плоскость, поворачиваете на 30° вокруг начала координат — вот и оператор поворота. Ясно, что никакие векторы не сохраняют направление, если угол поворота не кратен пи. Матрица поворота на угол фи (в положительном направлении) в ортонормированном базисе имеет вид
![\begin{pmatrix} \cos \varphi & - \sin \varphi\\ \sin \varphi & \cos \varphi \end{pmatrix} [tex] \begin{pmatrix} \cos \varphi & - \sin \varphi\\ \sin \varphi & \cos \varphi \end{pmatrix} [/tex]](https://latex.codecogs.com/png.latex? \begin{pmatrix} \cos \varphi & - \sin \varphi\\ \sin \varphi & \cos \varphi \end{pmatrix} )
Матрица заслуженная, полезно её хотя бы приблизительно представлять. Из геометрических соображений получается на раз.
Вот, матрицу я и хотел представить. Спасибо :)
Цитата: Квас от марта 29, 2011, 19:15
ЦитироватьЯ все-таки не пойму... Написано же, что если у матрицы ортонормальный базис, значит она симметрична, не так разве?
Да.
ЦитироватьНа вики пишут еще, что у симметричной матрицы ортогональные собственные пространства (и наоборот, т.е. iff).
Нет.
А это не одно и то же?!!
Разве не верно, что собственные пространства ортогональны ете у них есть ортонормальный базис?
Цитата: RawonaM от марта 29, 2011, 19:18
-v1vn=v1vn
А это возможно только если v1=0 или vn=0, в противоречие с бытыем этих векторов элементов базиса.
Нет, ну это же не числа! Если (a, b) = 0, то это значит только, что a и b ортогональны.
В задаче вы не использовали условие полностью: дано, что ортогональны
всей системе v1, ... v_{n-1}. Хинт: ортогональное дополнение к этой системе одномерно. Как на иврите аналог «хинта»? :)
Цитата: RawonaM от марта 29, 2011, 19:21
Разве не верно, что собственные пространства ортогональны ете у них есть ортонормальный базис?
Их может быть слишком мало, в том смысле, что сумма не будет давать всё пространство.
Цитата: Квас от марта 29, 2011, 19:24
Хинт: ортогональное дополнение к этой системе одномерно. Как на иврите аналог «хинта»? :)
Ре́мез :)
Цитата: Квас от марта 29, 2011, 19:29
ЦитироватьРазве не верно, что собственные пространства ортогональны ете у них есть ортонормальный базис?
Их может быть слишком мало, в том смысле, что сумма не будет давать всё пространство.
А-а... А если их достаточно, то значит матрица симметрична?
Цитата: Квас от марта 29, 2011, 19:24
Нет, ну это же не числа! Если (a, b) = 0, то это значит только, что a и b ортогональны.
Да, это конечно эпикфэйл. Если я на экзамене буду так тормозить как в последние дни...
Цитата: RawonaM от марта 29, 2011, 19:30
Цитата: Квас от Сегодня в 20:24ЦитироватьХинт: ортогональное дополнение к этой системе одномерно. Как на иврите аналог «хинта»? :)
Ре́мез :)
Оце дiло. А то «указание» слишком пафосно звучит.
Цитата: RawonaM от марта 29, 2011, 19:30
Цитата: Квас от Сегодня в 20:29ЦитироватьЦитироватьЦитироватьРазве не верно, что собственные пространства ортогональны ете у них есть ортонормальный базис?
Их может быть слишком мало, в том смысле, что сумма не будет давать всё пространство.
А-а... А если их достаточно, то значит матрица симметрична?
Ага.
Цитата: RawonaM от марта 29, 2011, 19:31
Цитата: Квас от Сегодня в 20:24ЦитироватьНет, ну это же не числа! Если (a, b) = 0, то это значит только, что a и b ортогональны.
Да, это конечно эпикфэйл. Если я на экзамене буду так тормозит как в последние дни...
Меньше заниматься, больше спать! ;up:
Цитата: Квас от марта 29, 2011, 19:31
Оце дiло. А то «указание» слишком пафосно звучит.
Почему указание? Хинт это ж подсказка.
Цитата: RawonaM от марта 29, 2011, 19:34
Цитата: Квас от Сегодня в 20:31ЦитироватьОце дiло. А то «указание» слишком пафосно звучит.
Почему указание? Хинт это ж подсказка.
По-русски вроде кроме «указание» не пишут ничего, потому и хочется чего-нибудь иноязычного. «Хинт» — банально (разве что «гинт» его обзывать).
Цитата: Квас от марта 29, 2011, 19:24
В задаче вы не использовали условие полностью: дано, что ортогональны всей системе v1, ... v_{n-1}.
Мне ж еще нужно показать, что они не из одного пространства. Не вижу тут как єто сделать.
Цитата: RawonaM от марта 29, 2011, 19:44
Цитата: Квас от Сегодня в 20:24ЦитироватьВ задаче вы не использовали условие полностью: дано, что ортогональны всей системе v1, ... v_{n-1}.
Мне ж еще нужно показать, что они не из одного пространства. Не вижу тут как єто сделать.
В смысле не из одного пространства?
Исходная система — базис, поэтому система v1, ... v_{n-1} имеет ранг n-1.
В смысле, кто сказал, что они оба не находятся в этом одномерном пространстве?
Цитата: RawonaM от марта 29, 2011, 20:06
В смысле, кто сказал, что они оба не находятся в этом одномерном пространстве?
Если предположить, что разности ортогональны чему там сказано, то они обе находятся в этом подпространстве. Отсюда получается линейная зависимость векторов v1, v2.
Дана вещественная матрица А и известно что A(I-A)=I.
Питуах:
![A-A^2=I\\<br />A-I=A^2\\<br />I-A=-A^2 [tex]A-A^2=I\\<br />A-I=A^2\\<br />I-A=-A^2[/tex]](https://latex.codecogs.com/png.latex?A-A^2=I\\<br />A-I=A^2\\<br />I-A=-A^2)
Подставляем снова в данное и получаем
![-A^3=I [tex]-A^3=I[/tex]](https://latex.codecogs.com/png.latex?-A^3=I)
.
До сих пор верно или уже ошибка где-то?
Дальше: если
![-A^3=I [tex]-A^3=I[/tex]](https://latex.codecogs.com/png.latex?-A^3=I)
, у
![-A^3 [tex]-A^3[/tex]](https://latex.codecogs.com/png.latex?-A^3)
собственное значение -1.
Можно ли из этого сделать вывод, что у
![-A^2 [tex]-A^2[/tex]](https://latex.codecogs.com/png.latex?-A^2)
собственное значение 1?
И дальше, что у -А собственное значение -1?
Ну и наконец у А тоже -1.
Короче где-то должна быть ошибка. :)
Цитата: RawonaM от марта 29, 2011, 21:46
Питуах:
![A-A^2=I A-I=A^2 I-A=-A^2 [tex]A-A^2=I A-I=A^2 I-A=-A^2[/tex]](https://latex.codecogs.com/png.latex?A-A^2=I A-I=A^2 I-A=-A^2)
Уже не понимаю. Дано-то что
![\inline A-A^2 = I [tex]\inline A-A^2 = I[/tex]](https://latex.codecogs.com/png.latex?\inline A-A^2 = I)
, как отсюда получается
![A-A^2=I A-I [tex]A-A^2=I A-I[/tex]](https://latex.codecogs.com/png.latex?A-A^2=I A-I)
?
Цитата: RawonaM от марта 29, 2011, 21:46
Дальше: если
, у
собственное значение -1.
Можно ли из этого сделать вывод, что у
собственное значение 1?
И дальше, что у -А собственное значение -1?
Нельзя. Опять же с поворотами можно подобрать пример (поворот на 60°).
Цитата: Квас от марта 29, 2011, 21:52
Нельзя. Опять же с поворотами можно подобрать пример (поворот на 60°).
А что с поворотами будет? Что если повороты в степень возводить?
Если при возведении в степень собственные значения тоже возводятся, то почему при корне собственные значения не корнюются?
Цитата: RawonaM от марта 29, 2011, 21:56
А что с поворотами будет? Что если повороты в степень возводить?
Повороты на кратные углы. Если рассматривать оператор поворота на 60° (нет собственных значений) и возвести его в куб, получится поворот на 180°, то есть центральная симметрия, как раз с.з. -1.
Цитата: RawonaM от марта 29, 2011, 21:56
Если при возведении в степень собственные значения тоже возводятся, то почему при корне собственные значения не корнюются?
Иногда корнюются (вспомнить, например, теорему о полярном разложении). Но там всё не так просто. Взять уже комплексные числа, из которых куча корней извлекается.
Цитата: Квас от марта 29, 2011, 22:00
ЦитироватьА что с поворотами будет? Что если повороты в степень возводить?
Повороты на кратные углы. Если рассматривать оператор поворота на 60° (нет собственных значений) и возвести его в куб, получится поворот на 180°, то есть центральная симметрия, как раз с.з. -1.
Точно, спасибо.
Цитата: Квас от марта 29, 2011, 22:00
ЦитироватьЕсли при возведении в степень собственные значения тоже возводятся, то почему при корне собственные значения не корнюются?
Иногда корнюются (вспомнить, например, теорему о полярном разложении). Но там всё не так просто. Взять уже комплексные числа, из которых куча корней извлекается.
Да, но тут в этом задании специально сказано, что матрица над R.
Мысль появилась.
Допустим у меня есть матрица, скажем такая:
1 1
-1 -1
Я могу посчитать ее собственные таким путем:
представить какой-нибудь базис, который начинается ((1,-1)...)
В этом базисе трансформация будет
1 1
0 0
Значит у этой матрицы собственные значения 1 и 0.
Катит? :)
Катит.
Что мы доказываем-то?
Цитата: Квас от марта 29, 2011, 22:27
Катит.
Что мы доказываем-то?
Это шорткат для поиска собственных значений. Задалбываем искать хар. многочлен. Утомительно ужасно :(
На данный момент был такой вопрос: подобны ли матрицы
1 1 1 1
-1 -1 -1 -1
1 1 1 1
1 1 1 1
2 0 0 0
0 0 0 0
0 0 0 0
1 0 0 0
По методу выше можно сказать, что у первой матрицы собственные значения 0 и 1.
У второй матрицы вроде 0 и 2.
Хотя... Если по тому же методу назначить базис ((2 0 0 1)...) и сказать, что в этом базисе она
1 0 0 0
0 0 0 0
0 0 0 0
0 0 0 0
Хм... Что-то тут неладно!
Не изначальное предположение, не катит. Ведь в столбцах матрицы разложения образов векторов базиса по этому же базису. Если вы берёте в качестве первого вектора нового базиса e1 - e2, то совсем не факт, что он отобразится в себя.
Цитата: Квас от марта 29, 2011, 22:39
Не изначальное предположение, не катит.
А что ж вы меня обрадовали, что катит? :(
Как можно на глаз вычислить собственные значения матрицы:
1 1 1 1
-1 -1 -1 -1
1 1 1 1
1 1 1 1
?
Я вот пытаюсь легкий способ найти.
У второй же 0 и 2, верно?
Цитата: RawonaM от марта 29, 2011, 22:43
Цитата: Квас от Сегодня в 23:39ЦитироватьНе изначальное предположение, не катит.
А что ж вы меня обрадовали, что катит? :(
Апшипся.
Цитата: RawonaM от марта 29, 2011, 22:43
У второй же 0 и 2, верно?
Ага, 0 трёхкратный. Можно не собственные значения сравнивать, а сами характеристические многочлены, потому что они инвариантны.
Западло, что даже следы совпадают.
Спешу обрадовать: посчитал в мэпле, у обеих характеристический многочлен
![\lambda^4 - 2\lambda^3 [tex]\lambda^4 - 2\lambda^3[/tex]](https://latex.codecogs.com/png.latex?\lambda^4 - 2\lambda^3)
Считаем дальше геометрические кратности. О, замечательно: обе матрицы приводятся к диагональному виду, причём к одному и тому же. Voilà ! Но считать придётся изрядно.
Цитата: Квас от марта 29, 2011, 22:53
Но считать придётся изрядно.
Я о чем и говорю. Вроде простая штука, а считать дай бог.
Цитата: Квас от марта 29, 2011, 22:39
Ведь в столбцах матрицы разложения образов векторов базиса по этому же базису. Если вы берёте в качестве первого вектора нового базиса e1 - e2, то совсем не факт, что он отобразится в себя.
Все-таки эта идея не дает мне покоя. Не пойму, что вы тут написали.
Допустим матрица.
1 1
-1 -1
Определяем базис B={(1,-1),v}
В этом же базисе у (1,-1) координаты какие? (1, 0)
Значит матрица таки.
1 1
0 0
Где все-таки ошибка? В упор не вижу.
Очевидно где-то тут ошибка, но блин?!
Цитата: RawonaM от марта 29, 2011, 23:36
Определяем базис B={(1,-1),v}
В этом же базисе у (1,-1) координаты какие? (1, 0)
Пусть первый базис e1, e2, тогда
Ae1 = e1 - e2 = Ae2
Вы берёте f = e1 - e2. Тогда
Af = A(e1 - e2) = 0,
что соответствует нулевому столбцу.
Когда мы переходим к новому базису, то с матрицей выполняются одновременно преобразования как строк, так и столбцов, поэтому трудно сказать, что получится.
Кажется понял.
Смотрите: у меня была трансфа
T(1,0)=(1,-1)
Я из нее почему-то сделал.
T(1,-1)=(1,-1)
Надо подумать, как отсюда выйти.
Придуумал!!
Чё-то я опять запутался. Но этот путь имхо можно добить.
Ладно, буду свои гениальные идеи вынашивать после экзамена. ;D
Посмотрел видеорешение, все-таки его решили без нудных рассчетов.
Использовали свойство что в хар. многочлене коэффициент tn-1 будет минус след. Красиво.
Получается, что для матрицы А размером n полином tn -tr(A)tn-1 + ... - det(A)?
Остальные коэффициенты ничего не означают? :)
Цитата: RawonaM от марта 30, 2011, 00:27
Использовали свойство что в хар. многочлене коэффициент tn-1 будет минус след. Красиво.
Не понял. В нашем же случае следы как раз одинаковые, я ещё раньше посетовал. Судя по моим вычислениям, матрицы подобны, и для доказательства их надо привести к жордановому виду (диагональный — частный случай) и сравнить.
Цитата: RawonaM от марта 30, 2011, 00:27
Остальные коэффициенты ничего не означают? :)
Они являются инвариантами оператора, поэтому они в любом случае важны. Конечно, больше всех известны второй коэффициент и свободный член (равен определителю), но остальные тоже находят применение: например, в классификации квадрик. Вот дают вам уравнение второго порядка на плоскости и вопрос, что оно задаёт: эллипс, гиперболу, параболу или вырожденную кривую навроде пары прямых? Инварианты позволяют получить ответ на этот вопрос. Ещё эти инварианты применяются, например, в механике, но там я не силён.
Цитата: Квас от марта 30, 2011, 00:47
ЦитироватьИспользовали свойство что в хар. многочлене коэффициент tn-1 будет минус след. Красиво.
Не понял. В нашем же случае следы как раз одинаковые, я ещё раньше посетовал. Судя по моим вычислениям, матрицы подобны, и для доказательства их надо привести к жордановому виду (диагональный — частный случай) и сравнить.
В том-то и дело, что без всякого привождения решение :)
С треугольной матрицей все ясно 2 и три раза ноль. Со второй поэтапно так:
1) матрица вырожденная с нулевым пространством размером в три
2) строим хар. полином: t^3(t + a), где а какое-то еще число, т.е. =t^4+at^3
3) Мы же знаем, что a = -tr матрицы. А след у нас 2, значит полином t^4-2t^3
4) Три раза ноль и один раз два — диагонализируемая.
Лепота :)
Ах, вон что! Да, красиво. ;up:
Ну все, на этой хорошей ноте можно идти спать. :)
Bonne nuit :)
Какой-то тупой вопрос попался:
Дан строчный вектор A=(a1 a2 ... an). ai вещественное число и не все нули.
Доказать rank(АtA)=rank(AAt).
WTF??
Что такое нафиг АtA? Нельзя умножить столбец на строку.
Транспонирование обозначают или
![A^\mathsf T [tex]A^\mathsf T[/tex]](https://latex.codecogs.com/png.latex?A^\mathsf T)
или
![\strut^tA [tex]\strut^tA[/tex]](https://latex.codecogs.com/png.latex?\strut^tA)
(не соображу, как в ТеХе красиво сделать), поэтому правая часть странно записана.
Цитата: Квас от марта 30, 2011, 11:27
Транспонирование обозначают или
или
(не соображу, как в ТеХе красиво сделать), поэтому правая часть странно записана.
В смысле? С парвой частью все в порядке. Это A умножить A
t, т.е. скалярное умножение, получится матрица 1х1.
А вот что такое A
t умножить на А?!
Цитата: RawonaM от марта 30, 2011, 11:30
At,
Не припомню, чтобы маленькая t писалась после буквы.
А столбец на строку умножается, да ещё и матрица получается ого-го:
Цитата: Квас от марта 30, 2011, 11:33
Не припомню, чтобы маленькая t писалась после буквы.
У нас так почему-то обозначают.
Цитата: Квас от марта 30, 2011, 11:33
А столбец на строку умножается, да ещё и матрица получается ого-го:
(1 \times n) = n\times n[/tex]](https://latex.codecogs.com/png.latex?(n \times 1)(1 \times n) = n\times n)
А, точно. Что-то я стормозил как обычно :)
Хех, еще ж доказать надо, что у нее ранг единица... Не так просто как казалось.
А-а, че там доказывать-то. Ранг произведения же не превышает ранг множителей.
Цитата: RawonaM от марта 30, 2011, 11:36
Цитата: Квас от Сегодня в 12:33ЦитироватьНе припомню, чтобы маленькая t писалась после буквы.
У нас так почему-то обозначают.
Каждый волен обозначать, как вздумается. :yes:
Цитата: RawonaM от марта 30, 2011, 11:39
А-а, че там доказывать-то. Ранг произведения же не превышает ранг множителей.
:yes:
Цитата: Квас от марта 30, 2011, 11:48
Каждый волен обозначать, как вздумается. :yes:
Ну так тут жеж нет Библии Лопатина :)
Доказать что
![\frac{z^{2010}-\bar{z}^{2010}}{1+z\bar{z}} [tex]\frac{z^{2010}-\bar{z}^{2010}}{1+z\bar{z}}[/tex]](https://latex.codecogs.com/png.latex?\frac{z^{2010}-\bar{z}^{2010}}{1+z\bar{z}})
мнимое число.
Как подходить к этому?
Цитата: RawonaM от марта 30, 2011, 12:28
Как подходить к этому?
Свойства сопряжённости: числитель чисто мнимый, знаменатель вещественный.
![z\bar z = \Im z^2 + \Re z^2 [tex]z\bar z = \Im z^2 + \Re z^2[/tex]](https://latex.codecogs.com/png.latex?z\bar z = \Im z^2 + \Re z^2)
?
Или, что то же,
![\inline |z|^2 [tex]\inline |z|^2[/tex]](https://latex.codecogs.com/png.latex?\inline |z|^2)
.
Трансфа из четырехмерного в трехмерный не может быть one-to-one? Как это по-русски не знаю.
kerT>0 iff трансформация не one-to-one, верно же?
Цитата: RawonaM от марта 31, 2011, 00:35
kerT>0 iff трансформация не one-to-one, верно же?
Абсолютно. :yes:
Цитата: RawonaM от марта 31, 2011, 00:35
Трансфа из четырехмерного в трехмерный не может быть one-to-one?
Ага, как следствие.
По-русски
взаимно-однозначный. То же самое, что биективный=bijective.
Кстати, глубокая топологическая теорема говорит, что не существует гомеоморфизма
![\inline \mathbb R^n [tex]\inline \mathbb R^n[/tex]](https://latex.codecogs.com/png.latex?\inline \mathbb R^n)
на
![\inline \mathbb R^m [tex]\inline \mathbb R^m[/tex]](https://latex.codecogs.com/png.latex?\inline \mathbb R^m)
при
![\inline n \neq m [tex]\inline n \neq m[/tex]](https://latex.codecogs.com/png.latex?\inline n \neq m)
, то есть взаимно-однозначного непрерывного отображения, у которого обратное непрерывно. Без условия биективности бывают очень экзотические отображения: например, кривая, заполняющая куб (любого числа измерений).
Цитата: Кваскривая, заполняющая куб
А кривая тоже nD (где
![n < n_{cube} [tex]n < n_{cube}[/tex]](https://latex.codecogs.com/png.latex?n < n_{cube})
) или 2D?
Цитата: Bhudh от марта 30, 2011, 19:18
Цитата: КвасЦитироватькривая, заполняющая куб
А кривая тоже nD (где
) или 2D?
Кривая одномерная. То есть если обозначить I=[0,1], то утверждается существование непрерывных сюръективных (т. е. «на») отображений
![I\to I^n [tex]I\to I^n[/tex]](https://latex.codecogs.com/png.latex?I\to I^n)
для любого натурального n, и даже есть сюръективные отображения
![I\to I^{\aleph_0} [tex]I\to I^{\aleph_0}[/tex]](https://latex.codecogs.com/png.latex?I\to I^{\aleph_0})
в тихоновское произведение счётного числа отрезков.
Если даны векторы двух подпространств, как безопаснее всего найти пересечение между ними? Я всегда запутываюсь в рассчетах. Всегда. :(
Ставлю столбцами координаты одних векторов, присоединяю к ним столбцами минус координаты других векторов, нахожу нулевое пространство и это мне дает коэффициенты столбцов в пересечении.
Цитата: КвасКривая одномерная.
То есть она заполняет
nD-куб без поворотов⁈ :o
Цитата: RawonaM от марта 30, 2011, 19:36
Если даны векторы двух подпространств, как безопаснее всего найти пересечение между ними?
Мне кажется, это самая громоздкая задача. Ваш способ, наверно, самый короткий. Ещё можно задать оба подпространства системами уравнений, тогда объединение этих систем задаёт пересечение подпространств, и надо только найти фундаментальную систему решений (базис системы решений).
Вопрос теперь, как задать пространство системой. Один из способов — положить векторы в строки (!) и найти ФСР системы с полученной матрицей. Компоненты векторов ФСР суть коэффициенты уравнений, задающих подпространство. Почему работает? Проще всего объяснить в случае евклидова пространства: мы фактически находим базис ортогонального дополнения. Если же нет желания вводить скалярное произведение, то можно считать, что мы действуем с ортогональными пространствами, одно из которых лежит в сопряжённом пространстве (пространстве функционалов).
Цитата: Bhudh от марта 30, 2011, 19:38
Цитата: КвасЦитироватьКривая одномерная.
То есть она заполняет nD-куб без поворотов⁈ :o
С поворотами и большим числом самопересечений. Как длинная спутанная нитка.
ФСР — это что такое?
Цитата: Квас от марта 30, 2011, 19:56
Мне кажется, это самая громоздкая задача. Ваш способ, наверно, самый короткий.
Он самый короткий, но очень уязвим для обсчетов :(
Цитата: RawonaM от марта 30, 2011, 20:05
ФСР — это что такое?
Фундаментальная система решений — базис пространства решений однородной системы.
Цитата: Квас от марта 30, 2011, 20:13
ЦитироватьФСР — это что такое?
Фундаментальная система решений — базис пространства решений однородной системы.
Базис нулевого пространства матрицы то есть?
Цитата: RawonaM от марта 30, 2011, 20:18
Цитата: Квас от Сегодня в 21:13ЦитироватьЦитироватьЦитироватьФСР — это что такое?
Фундаментальная система решений — базис пространства решений однородной системы.
Базис нулевого пространства матрицы то есть?
Наверно. Что-то «нулевого пространства матрицы» у нас не было.
Цитата: Квас от марта 30, 2011, 21:41
Наверно. Что-то «нулевого пространства матрицы» у нас не было.
А как? (wiki/en) Nullspace (http://en.wikipedia.org/wiki/Nullspace)
Пишут то же самое, что ядро матрицы. На русском статьи нет.
Меня Стрэнг научил, впрочем у нас тоже называют нулевым пространством, но уточняют, что нулевое пространство
строк матрицы.
У Стрэнга целая лекция о четырех фундаментальных подпространствах: {0}, нулевое пространство (Nullspace), пространство столбцов (Column space) и собственно целое пространство (тоже подпространство самого себя).
Цитата: RawonaM от марта 30, 2011, 23:12
Цитата: Квас от Вчера в 22:41ЦитироватьНаверно. Что-то «нулевого пространства матрицы» у нас не было.
А как?
Да я что-то не припомню вообще. Говорят о подпространстве решений в
![\inline R^n [tex]\inline R^n[/tex]](https://latex.codecogs.com/png.latex?\inline R^n)
однородной системы. А для операторов применяется термины ядро и образ. Правда, с точки зрения операторов матрицы — сбоку припёка, но если оператор задать матрицей, то как раз ядро — нулевое пространства, образ — линейная оболочка системы столбцов.
Может и есть специальные названия.
Цитата: RawonaM от марта 30, 2011, 23:12
У Стрэнга целая лекция о четырех фундаментальных подпространствах: {0}, нулевое пространство (Nullspace), пространство столбцов (Column space) и собственно целое пространство (тоже подпространство самого себя).
Что-то свалено всё в кучу. :donno: В любом пространстве есть нулевое подпространство, и само оно является своим подпространством. И матрицы тут не при чём, ведь могут рассматриваться, например, функциональные пространства или ещё какие. А Nullspace и Columnspace — подпространства именно
![\inline R^n [tex]\inline R^n[/tex]](https://latex.codecogs.com/png.latex?\inline R^n)
, причём связанные с конкретной матрицей. Другая матрица — другие, вообще говоря, подпространства.
Не, прошу пардона, это я намешал две лекции :)
http://ocw.mit.edu/courses/mathematics/18-06-linear-algebra-spring-2010/video-lectures/lecture-10-the-four-fundamental-subspaces/
Почитал транскрипт той лекции: четыре фундаментальных субспейса матрицы это подпространтсво строк, нулевое пространтсво строк, подпространство стобцов и нулевое пространство стобцов.
Задание: даны матрицы 2х2 А и В, у которых след=детерминанта=7.
Являются ли они обязательно подобными?
Мое решение: хар. полином у обоих t^2-7t+7, у этого полинома нет корней, значит у этих матриц нет собственных значений и они не диагонализируемые и следовательно неподобные. Правильно?
Цитата: RawonaM от марта 31, 2011, 10:07
они не диагонализируемые и следовательно неподобные.
Это неверная импликация, вы и сами легко объясните.
На самом деле эти матрицы подобные. Если рассуждать над
![\inline \mathbb C [tex]\inline \mathbb C[/tex]](https://latex.codecogs.com/png.latex?\inline \mathbb C)
, то это очевидно, так как обе диагонализируемые, и на диагонали получаются одни и те же собственные значения.
Над
![\inline \mathbb R [tex]\inline \mathbb R[/tex]](https://latex.codecogs.com/png.latex?\inline \mathbb R)
сложнее. Пусть A — матрица с характеристическим многочленом t^2-7t+7. Этот многочлен имеет сопряжённые корни
![\inline t_{1,2} = r(\cos \varphi + i \sin \varphi) [tex]\inline t_{1,2} = r(\cos \varphi + i \sin \varphi)[/tex]](https://latex.codecogs.com/png.latex?\inline t_{1,2} = r(\cos \varphi + i \sin \varphi))
Можно показать, что всякая A подобна матрице поворота на угол
![\varphi [tex]\varphi[/tex]](https://latex.codecogs.com/png.latex?\varphi)
, умноженной на r. Это делается так. Рассмотрим эту матрицу как оператор на
![\mathbb C^2 [tex]\mathbb C^2[/tex]](https://latex.codecogs.com/png.latex?\mathbb C^2)
. Есть базис из комплексных векторов
![\inline \mathbf e_1,\ e_2 [tex]\inline \mathbf e_1,\ e_2[/tex]](https://latex.codecogs.com/png.latex?\inline \mathbf e_1,\ e_2)
, в котором этот оператор имеет диагональную матрицу
![<br />\begin{pmatrix}<br />\lambda & 0\\<br />0 & \bar \lambda<br />\end{pmatrix}<br /> [tex]<br />\begin{pmatrix}<br />\lambda & 0\\<br />0 & \bar \lambda<br />\end{pmatrix}<br />[/tex]](https://latex.codecogs.com/png.latex?<br />\begin{pmatrix}<br />\lambda & 0\\<br />0 & \bar \lambda<br />\end{pmatrix}<br />)
Если рассмотреть базис
![\mathbf f_1 = \mathbf e_1 +\mathbf e_2,\ f_2=\mathbf e_1 - \mathbf e_2 [tex]\mathbf f_1 = \mathbf e_1 +\mathbf e_2,\ f_2=\mathbf e_1 - \mathbf e_2[/tex]](https://latex.codecogs.com/png.latex?\mathbf f_1 = \mathbf e_1 +\mathbf e_2,\ f_2=\mathbf e_1 - \mathbf e_2)
получается кое-что интересное.
На самом деле, если есть классификация объектов (например, матриц по признаку подобия), то возникает вопрос об инвариантах, то есть величинах, одинаковых для представителей одного класса. Разные значения инварианта моментально дают отрицательный ответ на вопрос о принадлежности объектов одному классу. Если инварианты совпадают, то, конечно, вывода сделать нельзя. Поэтому большое значение имеет отыскание полной системы инвариантов, то есть такой их совокупности, что совпадение всех их для пары объектов является достаточным условием принадлежности объектов одному классу.
В случае подобия комплексных матриц такой системой инвариантов является набор собственных значений и число и размер жордановых клеток, соответствующих собственным значениям. В вещественном случае аналогично, только вместо собственных значений следует рассматривать корни характеристического многочлена (в том числе мнимые) и добавляется новый вид жордановой клетки.
Так что вопрос о подобии двух данных матриц естественно решается через жорданову форму.
Цитата: Квас от марта 31, 2011, 17:23
Цитироватьони не диагонализируемые и следовательно неподобные.
Это неверная импликация, вы и сами легко объясните.
Теперь-то я легко объясню, после экзамена :) Как раз на подобии матриц я маху дал :(
Цитата: Квас от марта 31, 2011, 17:23
Так что вопрос о подобии двух данных матриц естественно решается через жорданову форму.
Мы не учили жорданову форму :(
Щас будем разбирать экзамен, оценивать шансы оценки.
Во дела! Тихой сапой; я и не знал, что сегодня. :(
Общие впечатления: ХЗ.
Не уверен ни в чем. Максимальная оценка порядка 93 (при условии, что все-все правильно и точно). Минимальную даже не скажу, понятия не имею.
Один вопрос был достаточно легкий, два средние, но я вроде с ними справился, еще один вроде не сложный, но я не особо справился. Пятый не делал. Времени мало, не успел я как следует обдумать и сделать.
Начнем в порядке от легкого к сложному, как я решал.
Вопрос 4:
Дана матрица над
![\mathbb{C} [tex]\mathbb{C}[/tex]](https://latex.codecogs.com/png.latex?\mathbb{C})
:
![\begin{pmatrix}<br />2 & 0 & 0 \\<br />1 & 0 & a^2 \\<br />1 & -4 & 0 \\<br />\end{pmatrix} [tex]\begin{pmatrix}<br />2 & 0 & 0 \\<br />1 & 0 & a^2 \\<br />1 & -4 & 0 \\<br />\end{pmatrix}[/tex]](https://latex.codecogs.com/png.latex?\begin{pmatrix}<br />2 & 0 & 0 \\<br />1 & 0 & a^2 \\<br />1 & -4 & 0 \\<br />\end{pmatrix})
Найти значения а для которых А диагонализуема.
хар. полином:
![det\begin{pmatrix}<br />2-t & 0 & 0 \\<br />1 & 0-t & a^2 \\<br />1 & -4 & 0-t \\<br />\end{pmatrix} = (2-t)((-t)^2+4a^2) = (2-t)(t^2+4a^2) [tex]det\begin{pmatrix}<br />2-t & 0 & 0 \\<br />1 & 0-t & a^2 \\<br />1 & -4 & 0-t \\<br />\end{pmatrix} = (2-t)((-t)^2+4a^2) = (2-t)(t^2+4a^2)[/tex]](https://latex.codecogs.com/png.latex?det\begin{pmatrix}<br />2-t & 0 & 0 \\<br />1 & 0-t & a^2 \\<br />1 & -4 & 0-t \\<br />\end{pmatrix} = (2-t)((-t)^2+4a^2) = (2-t)(t^2+4a^2))
Тобто одно собственное значение 2, найдем остальные:
![t^2=-4a^2=-2^2a^2=(2ai)^2 [tex]t^2=-4a^2=-2^2a^2=(2ai)^2[/tex]](https://latex.codecogs.com/png.latex?t^2=-4a^2=-2^2a^2=(2ai)^2)
Т.е. два других значения 2ai и -2ai.
Значит если
![a \ne 0 [tex]a \ne 0[/tex]](https://latex.codecogs.com/png.latex?a \ne 0)
у матрицы три СЗ и следовательно она диагонализируема.
При а=0 ранг матрицы 2, т.е. геометрическая кратность нуля один, а алгебраическая два, поэтому недиагонализинуема.
Т.е. для любого а не ноль матрица диагонализируема.
Тут хотя бы верно? Боюсь что уже напортачил :(
Цитата: RawonaM от марта 31, 2011, 21:33
При а=0 ранг матрицы 2, т.е. геометрическая кратность нуля один, а алгебраическая два, поэтому недиагонализинуема.
Комплексные a допускаются? Если да, то при
![a = \pm i [tex]a = \pm i[/tex]](https://latex.codecogs.com/png.latex?a = \pm i)
она тоже недиагонализируема (когда 2 является двойным корнем). При всех остальных диагонализируема.
Вопрос номер 3:
Дано некое пространство V. Доказать, что T: V->V не равно cI (с константа) iff существует вектор v (не 0) так что {v, T(v)} линейно независима.
Совершенно банально и очевидно, похоже на какую-то тренировку в доказательствах. А с этим во время экзамена не просто :(
В первую сторону: допустим даны {v, T(v)} и они линейно независимы.
Это значит что в av+bT(v)=0 обязательно а=b=0.
Значит не может быть T(v)=cv, иначе было бы c=-a/b и векторы линейно зависимы.
Во вторую сторону: дана трансформация
![T \ne cI [tex]T \ne cI[/tex]](https://latex.codecogs.com/png.latex?T \ne cI)
.
...
Короче, тут я уже забыл как я точно сделал, боюсь что тут тоже мог ошибиться в доказательстве.
В общем, будь что будет.
Поехали дальше.
Цитата: Квас от марта 31, 2011, 21:48
ЦитироватьПри а=0 ранг матрицы 2, т.е. геометрическая кратность нуля один, а алгебраическая два, поэтому недиагонализинуема.
Комплексные a допускаются? Если да, то при
она тоже недиагонализируема (когда 2 является двойным корнем). При всех остальных диагонализируема.
Так сказано же матрица над С.
Да, вот этот момент я не учел, а времени проверить уже не было.
Ну что ж, тут уже баллов так 10 потерял. :(
Хотя не знаю сколько снимут за это.
Вопрос номер 2:
Пусть будет V л. пространтсво и будет В подмножество V не содержащее нулевого вектора.
Доказать, что оба следующих условия эквивалентны:
1) В — базис V.
2) Для любого подмножества
![A \subseteq B [tex]A \subseteq B[/tex]](https://latex.codecogs.com/png.latex?A \subseteq B)
верно что
![V=Sp(A) \oplus Sp(B-A) [tex]V=Sp(A) \oplus Sp(B-A)[/tex]](https://latex.codecogs.com/png.latex?V=Sp(A) \oplus Sp(B-A))
.
Очень банальное, но нудное доказательство и сколько там прибавят или отбавят один иегова ведает. Даже нечего тут и расписывать. Все чисто банальные вещи, только доказывать надо уметь. Это совершенно очевидно и никакой теоретической ценности не представлят.
Цитата: RawonaM от марта 31, 2011, 21:51
Дано некое пространство V. Доказать, что T: V->V не равно cI (с константа) iff существует вектор v (не 0) так что {v, T(v)} линейно независима.
Это к нашему давнишнему разговору о прямой сумме подпространств. Линейная зависимость в данном случае означает, что либо v — собственный вектор, либо v=0. Если все векторы пространства собственные, то и собственное значение для них одно, т. е. оператор имеет вид cI.
И последний сделанный мною вопрос (номер 1), который вроде простой, но скушал кучу моих серых клеток:
1) Даны симметричные матрицы A и B размером n.
а) Доказать, что АВ-ВА антисимметрична.
б) Доказать, что если AB-BА невырожденная, то n четно.
2) Доказать, что любая квадратная матрица размером n с рангом k подобна матрице c n-k столбцов нулей.
1а) Проблемы не представляет
^T=(AB)^T-(BA)^T=B^T A^T-A^T B^T=BA-AB=-(AB-BA)[/tex]](https://latex.codecogs.com/png.latex?(AB-BA)^T=(AB)^T-(BA)^T=B^T A^T-A^T B^T=BA-AB=-(AB-BA))
1b) Не осилил. :(
2) Над этим долго думал и только за 10 минут до окончания меня осенило, написал по быстрому, не знаю что из этого вышло.
Примерно за пять минут я успел написать следующее:
Возьмем матрицу A
T и произведем над ней элементарные операции так, что получим k строк нулей.
Возьмем матрицу I и произведем над ней те же самые операции и будет это матрица M.
Тогда выходит, что MA
T=B, где B некая матрица с k строк нулей.
Затранспонируем обе стороны:
AM
T=B
TПолучается матрица с к столбцов нулей. Подомжножим это все слева на матрицу (M
T)
-1:
(M
T)
-1AM
T=(M
T)
-1B
TПолучается справа у нас матрица B
T к которой применили некоторые элементарные операции. Но элементарные операции не меняют количества столбцов с нулями, поэтому у нас в итоге получилась некоторая матрица с k столбцов нулей и она подобна А (по формуле).
Фуф. Одним словом: извращение :) По дороге домой меня посетила мысль, как нужно было этот пункт решать, что было бы намного проще, но я уже забыл опять. :(
Цитата: Квас от марта 31, 2011, 22:19
ЦитироватьДано некое пространство V. Доказать, что T: V->V не равно cI (с константа) iff существует вектор v (не 0) так что {v, T(v)} линейно независима.
Это к нашему давнишнему разговору о прямой сумме подпространств. Линейная зависимость в данном случае означает, что либо v — собственный вектор, либо v=0. Если все векторы пространства собственные, то и собственное значение для них одно, т. е. оператор имеет вид cI.
Да я знаю, я все тут прекрасно понимаю. Я эту трансформацию еще обмял со всех сторон в связи с ромашковым чаем.
Пентый вопрос был такой:
1) Доказать, что ортогональная треугольная матрица — диагональна.
2) Дать пример линейной трансформации из Rn в Rn, так что пересечение ядра и образа нулевое, при этом kerT={(x1,x2,...,xn)|x1+x2+...+xn-2=0}
1) Безнадега, можно было все время на это убить. Или знаешь ответ заранее или не берись.
2) Довольно просто должно быть, но большое поле для запутывания. Хотя какбе особых проблем не вижу. На лету подумал, что образ должен быть Sp{(1,1,1,1...1,0,0)}, ну соответственно остальное ядро, т.е. всего лишь найти дополнение к Sp{(1,1,1,1...1,0,0)} и загнать его в ноль.
Браться не стал, потому что пункт 1 нерешаемый. Сейчас думать не охота.
Цитата: Квас от марта 31, 2011, 22:32
А делается так: рассматриваем оператор с этой матрицей. У него ядро (n-k)-мерное. Выбираем базис ядра, дополняем до базиса пространства и записываем матрицу оператора в этом базисе. Voilà !
Да, вот именно так я это и подумал, когда автобуса домой ждал :)
Честное пионерское :)
Цитата: Квас от марта 31, 2011, 22:32
Нет, это Извращение с большой буквы. :)
Ага :) Интересно, что больше, добавка за изобретательность и отбавка за то, что не знал наиправильный путь? ;D
Цитата: RawonaM от марта 31, 2011, 22:30
1) Доказать, что ортогональная треугольная матрица — диагональна.
Можно воспользоваться тем, что скалярные произведения столбцов равны 0. В первом столбце единственный ненулевой элемент (матрица невырождена!), поэтому в первой строчке все нули, кроме первого; тогда во втором столбце единственный ненулевой элемент — второй, и во второй строчке все нули, кроме второго унд зо вайтер.
Quasus, j'ai une nouvelle pour toi: je vais m'enregistrer au cours de l'algèbre linéaire II en été. ;D
http://www-e.openu.ac.il/courses/20229.htm
C'est formidable ! Je vais chercher des manuels d'algebre en français. :)
Très bien :) Je crois que pour la terminologie le Wiki est assez :)