Главное меню
Мы солидарны с Украиной. Узнайте здесь, как можно поддержать Украину.

Линейная алгебра

Автор RawonaM, февраля 24, 2011, 22:03

0 Пользователи и 1 гость просматривают эту тему.

RawonaM

По идее должно быть верно, ведь V+U=Rn, почему бы им не покрывать все матрицы. Но до конца не понимаю, что тут происходит.

Квас

Цитата: RawonaM от марта 26, 2011, 10:52
На первый вопрос я легко ответил (пересечение неравно нулю), а вот со вторым застрял. Как вообще определить размерность таких пространств? Vd допустим (n-1)n, мне так кажется, а Ud тогда что? Запутался.

Я думаю, проще не  через размерности, а просто попробовать представить данную матрицу A в виде суммы матрицы с нулевым следом и с одним элементом на диагонали. Это просто: в качестве второй матрицы достаточно взять -(tr A)/nI.

Размерность можно было бы посчитать как размерность образа плюс размерность ядра, но необходимости нет.
Пишите письма! :)

Квас

Цитата: RawonaM от марта 26, 2011, 00:04
Тут вот некий странный вопрос попался.

Даны векторы u1, u2, v1, v2 и известно, что [tex]\inline Sp\{v_1,v_2\} \cap Sp\{u_1, u_2\} \ne \{0\}[/tex] и что [tex]\inline v_1 \notin Sp\{u_1,u_2,v_2\}[/tex]. Найти базис для [tex]\inline Sp\{v_1,v_2\}[/tex].

Ответ же [tex]\inline Sp\{v_1,v_2\}[/tex] дэска?
Не пойму в чем подвох.

Вопрос в ранге системы {v1, v2}. Если бы он был 0, то оба вектора были бы нулевые, что противоречит первому условию. Если он 1, то из первого условия следует, что Sp{v1, v2} содержится в Sp{u1, u2}, а это противоречит второму условию. Значит, он равен 2, и v1, v2 образуют базис.
Пишите письма! :)

Квас

Цитата: RawonaM от марта 25, 2011, 22:20
Система — это типа множества, но с возможными повторениями? :)

Ага. У нас в лекциях было так и не без причины. Хотя понятие не очень стандартное; что там в учебниках, сейчас не вспомню.
Пишите письма! :)

RawonaM

Цитата: Квас от марта 26, 2011, 11:10
Я думаю, проще не  через размерности, а просто попробовать представить данную матрицу A в виде суммы матрицы с нулевым следом и с одним элементом на диагонали. Это просто: в качестве второй матрицы достаточно взять -(tr A)/nI.
Ага, кажется понял. Правда неясно, как разложение делать.
(х1,х2..хn) =??

Квас

Цитата: RawonaM от марта 26, 2011, 11:31
Цитата: Квас от Сегодня в 12:10
ЦитироватьЯ думаю, проще не  через размерности, а просто попробовать представить данную матрицу A в виде суммы матрицы с нулевым следом и с одним элементом на диагонали. Это просто: в качестве второй матрицы достаточно взять -(tr A)/nI.
Ага, кажется понял. Правда неясно, как разложение делать.

Со знаком обдёрнулся.
[tex]<br />A = \left( A - \frac 1n (\mathop{\mathrm{tr}} A) I\right) + \frac 1n (\mathop{\mathrm{tr}} A) I.<br />[/tex]
Пишите письма! :)

RawonaM

0 1
0 0

Эта матрица ведь не диагонализируема, правильно?

Тут вопрос такой: если у двух матриц одинаковый хар. многочлен, и одна из них диагонализируема, то вторая тоже или не обязательно?
Вроде как понятно, что они не обязательно подобны, но вдруг вторая подобна другой диагональной матрице.

Я привел в контрпример.
0 0
0 0
и
0 1
0 0

Правильно?

Квас

Цитата: RawonaM от марта 27, 2011, 12:50
0 1
0 0

Эта матрица ведь не диагонализируема, правильно?

Да. У неё собственное значение 0, а если бы она была диагонализируема, то на диагонали было бы отличное от 0 число (т. к. ранг равен 1), то есть было бы ненулевое собственное значение.

Цитата: RawonaM от марта 27, 2011, 12:50
Тут вопрос такой: если у двух матриц одинаковый хар. многочлен, и одна из них диагонализируема, то вторая тоже или не обязательно?
Вроде как понятно, что они не обязательно подобны, но вдруг вторая подобна другой диагональной матрице.

Я привел в контрпример.
0 0
0 0
и
0 1
0 0

Правильно?

Абсолютно.
Пишите письма! :)

RawonaM

Цитата: Квас от марта 27, 2011, 16:18
Да. У неё собственное значение 0, а если бы она была диагонализируема, то на диагонали было бы отличное от 0 число (т. к. ранг равен 1), то есть было бы ненулевое собственное значение.
И то правда.

Благодарю.

RawonaM

В симметричной матрице по диагонали располагаются собственные значения?

Квас

Цитата: RawonaM от марта 29, 2011, 18:10
В симметричной матрице по диагонали располагаются собственные значения?

Вообще говоря, нет. В диагональной.
Пишите письма! :)

RawonaM

Цитата: Квас от марта 29, 2011, 18:12
ЦитироватьВ симметричной матрице по диагонали располагаются собственные значения?
Вообще говоря, нет. В диагональной.
В диагональной оно понятно. А что в симметричной?
Что-то я смутно припоминаю.

Квас

Цитата: RawonaM от марта 29, 2011, 18:13
Цитата: Квас от Сегодня в 19:12
ЦитироватьЦитировать
ЦитироватьВ симметричной матрице по диагонали располагаются собственные значения?
Вообще говоря, нет. В диагональной.
В диагональной оно понятно. А что в симметричной?
Что-то я смутно припоминаю.

В симметричной может быть всё что угодно. Насчёт них приходит на ум: в вещественном пространстве оператор симметрический тогда и только тогда, когда его матрица в любом ортогональном базисе симметрическая; любой симметрический оператор имеет в некотором ортогональном базисе диагональный вид; на матричном языке это означает, что любая симметрическая матрица подобна диагональной, причём подобие осуществляется ортогональной матрицей; на языке квадратичных форм это означает, что квадратичная форма на евклидовом пространстве в некотором ортогональном базисе имеет канонический вид.
Пишите письма! :)

RawonaM

На вики пишут еще, что у симметричной матрицы ортогональные собственные пространства (и наоборот, т.е. iff).
Что-то Стрэнг говорил про симметничные матрицы интересное, не могу вспомнить. У какой-то матрицы были в диагонали собственные значения (кроме диагональной). Может у треугольной?

Квас

Цитата: RawonaM от марта 29, 2011, 18:29
На вики пишут еще, что у симметричной матрицы ортогональные собственные пространства (и наоборот, т.е. iff).

Ортогональные пространства — да, это следует из ортодиагонализируемости (основное свойство самосопряжённых операторов). В обратную сторону? :-\ Если предположить диагонализируемость...

Цитата: RawonaM от марта 29, 2011, 18:29
Что-то Стрэнг говорил про симметничные матрицы интересное, не могу вспомнить. У какой-то матрицы были в диагонали собственные значения (кроме диагональной). Может у треугольной?

Да, у треугольной, потому что определитель — произведение диагональных элементов.
Пишите письма! :)

RawonaM

Цитата: Квас от марта 29, 2011, 18:42
ЦитироватьНа вики пишут еще, что у симметричной матрицы ортогональные собственные пространства (и наоборот, т.е. iff).
Ортогональные пространства — да, это следует из ортодиагонализируемости (основное свойство самосопряжённых операторов). В обратную сторону? :-\ Если предположить диагонализируемость...
Ну вот, так пишут:
ЦитироватьAnother way of stating the real spectral theorem is that the eigenvectors of a symmetric matrix are orthogonal. More precisely, a matrix is symmetric if and only if it has an orthonormal basis of eigenvectors.

RawonaM

Цитата: Квас от марта 29, 2011, 18:42
ЦитироватьЧто-то Стрэнг говорил про симметничные матрицы интересное, не могу вспомнить. У какой-то матрицы были в диагонали собственные значения (кроме диагональной). Может у треугольной?
Да, у треугольной, потому что определитель — произведение диагональных элементов.
Ага, это полезно помнить.

RawonaM


Квас

Цитировать
a matrix is symmetric if and only if it has an orthonormal basis of eigenvectors

Это я и назвал непроизносимым словом «ортодиагонализируемость». :) В такой формулировке верно.

Просто, например, если собственных подпространств вообще нет (оператор поворота на плоскости, например), то все собственные подпространства ортогональны.
Пишите письма! :)

Квас

Цитата: RawonaM от марта 29, 2011, 18:48
Блин, боюсь экзамена. :(

Все боятся, ничего не поделаешь. :) Не переживайте.
Пишите письма! :)

RawonaM

Цитата: Квас от марта 29, 2011, 18:50
ЦитироватьБлин, боюсь экзамена. :(
Все боятся, ничего не поделаешь. :) Не переживайте.
Я никогда не боялся. Только инфи и вот алгебру че-то. Потому как если не сдам, надо опять целый семестр терять на нее. Вроде как и знаю, вроде как и не знаю. На везение.

RawonaM

Цитата: Квас от марта 29, 2011, 18:50
Цитироватьa matrix is symmetric if and only if it has an orthonormal basis of eigenvectors
Это я и назвал непроизносимым словом «ортодиагонализируемость». :) В такой формулировке верно.

Просто, например, если собственных подпространств вообще нет (оператор поворота на плоскости, например), то все собственные подпространства ортогональны.
Что-то я не въезжаю в разницу. Симметричная матрица всегда же диагонализируема, значит всегда есть собственные подпространства. А если базис пространств ортогональный, значит это симметричная матрица. Не так?

Квас

Неверно, что если все собственные подпространства ортогональны, то оператор самосопряжённый. Пример: оператор поворота на плоскости на угол, не кратный пи.
Пишите письма! :)

RawonaM

Цитата: Квас от марта 29, 2011, 18:58
Пример: оператор поворота на плоскости на угол, не кратный пи.
Как это в матрице выглядит? А-то у меня понятия нет, как операторы поворота представлять.

Цитата: Квас от марта 29, 2011, 18:58
Неверно, что если все собственные подпространства ортогональны, то оператор самосопряжённый.
А что такое самосопряженный?

Я все-таки не пойму... Написано же, что если у матрицы ортонормальный базис, значит она симметрична, не так разве?

Квас

Цитата: RawonaM от марта 29, 2011, 19:01
Я все-таки не пойму... Написано же, что если у матрицы ортонормальный базис, значит она симметрична, не так разве?

Да.

Цитата: RawonaM от марта 29, 2011, 18:29
На вики пишут еще, что у симметричной матрицы ортогональные собственные пространства (и наоборот, т.е. iff).

Нет.

Цитата: RawonaM от марта 29, 2011, 19:01
Цитата: Квас от Сегодня в 19:58
ЦитироватьПример: оператор поворота на плоскости на угол, не кратный пи.

Как это в матрице выглядит? А-то у меня понятия нет, как операторы поворота представлять.

В каком смысле представлять? Берёте плоскость, поворачиваете на 30° вокруг начала координат — вот и оператор поворота. Ясно, что никакие векторы не сохраняют направление, если угол поворота не кратен пи. Матрица поворота на угол фи (в положительном направлении) в ортонормированном базисе имеет вид
[tex]<br />\begin{pmatrix}<br />\cos \varphi & - \sin \varphi\\<br />\sin \varphi & \cos \varphi<br />\end{pmatrix}<br />[/tex]
Матрица заслуженная, полезно её хотя бы приблизительно представлять. Из геометрических соображений получается на раз.

Цитата: RawonaM от марта 29, 2011, 19:01
Цитата: Квас от Сегодня в 19:58
ЦитироватьНеверно, что если все собственные подпространства ортогональны, то оператор самосопряжённый.
А что такое самосопряженный?

(Ax, y) = (x, Ay)
В вещественном случае называется симметрическим, в комплексном — эрмитовым.
Пишите письма! :)

Быстрый ответ

Обратите внимание: данное сообщение не будет отображаться, пока модератор не одобрит его.

Имя:
Имейл:
Проверка:
Оставьте это поле пустым:
Наберите символы, которые изображены на картинке
Прослушать / Запросить другое изображение

Наберите символы, которые изображены на картинке:

√36:
ALT+S — отправить
ALT+P — предварительный просмотр