Утверждение «если ( AB = BA ), то ( A ) и ( B ) диагонализуемы одновременно» является ошибочным, поскольку не все пары коммутирующих матриц являются одновременно диагонализуемыми.
Как видно, ( AB = BA ), то есть матрицы коммутируют.
Теперь рассмотрим диагонализуемость каждой из матриц.
Матрица ( A ):
Найдём её собственные значения, решив характеристическое уравнение: [ \det(A - \lambda I) = \det\begin{pmatrix} 1 - \lambda & 1 \ 0 & 1 - \lambda \end{pmatrix} = (1 - \lambda)^2 ]Собственное значение ( \lambda = 1 ) имеет алгебраическую кратность 2. Найдём собственные векторы: [ (A - I)v = 0 \implies \begin{pmatrix} 0 & 1 \ 0 & 0 \end{pmatrix}\begin{pmatrix} x \ y \end{pmatrix} = 0 \implies y = 0, \text{ где } x \text{ произвольный.} ]Таким образом, собственный вектор соответствует собственному значению ( 1 ) только вектору вида ( \begin{pmatrix} 1 \ 0 \end{pmatrix} ), что говорит о том, что ( A ) не имеет полного набора линейно независимых собственных векторов (размер жордановой клетки равен 2).
Матрица ( B ):
Очевидно, ( B ) является диагональной и, следовательно, диагонализуема.
Таким образом, хотя матрицы ( A ) и ( B ) и коммутируют, матрица ( A ) не является диагонализуемой. Это иллюстрирует, что коммутирование не гарантирует одновременной диагонализуемости.
Вывод
Ошибка утверждения заключается в том, что наличие общего собственного значения или коммутативной природы не является достаточным условием для одновременной диагонализуемости, если хотя бы одна из матриц не обладает свойством быть диагонализуемой.
Утверждение «если ( AB = BA ), то ( A ) и ( B ) диагонализуемы одновременно» является ошибочным, поскольку не все пары коммутирующих матриц являются одновременно диагонализуемыми.
КонтрпримерРассмотрим матрицы:
[
A = \begin{pmatrix} 1 & 1 \ 0 & 1 \end{pmatrix}, \quad B = \begin{pmatrix} 1 & 0 \ 0 & 0 \end{pmatrix}
]
Эти матрицы коммутируют:
[
AB = \begin{pmatrix} 1 & 1 \ 0 & 1 \end{pmatrix} \begin{pmatrix} 1 & 0 \ 0 & 0 \end{pmatrix} = \begin{pmatrix} 1 & 0 \ 0 & 0 \end{pmatrix}
]
[
BA = \begin{pmatrix} 1 & 0 \ 0 & 0 \end{pmatrix} \begin{pmatrix} 1 & 1 \ 0 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 1 \ 0 & 0 \end{pmatrix}
]
Как видно, ( AB = BA ), то есть матрицы коммутируют.
Теперь рассмотрим диагонализуемость каждой из матриц.
Матрица ( A ):
Найдём её собственные значения, решив характеристическое уравнение:[
\det(A - \lambda I) = \det\begin{pmatrix} 1 - \lambda & 1 \ 0 & 1 - \lambda \end{pmatrix} = (1 - \lambda)^2
]Собственное значение ( \lambda = 1 ) имеет алгебраическую кратность 2. Найдём собственные векторы:
[
(A - I)v = 0 \implies \begin{pmatrix} 0 & 1 \ 0 & 0 \end{pmatrix}\begin{pmatrix} x \ y \end{pmatrix} = 0 \implies y = 0, \text{ где } x \text{ произвольный.}
]Таким образом, собственный вектор соответствует собственному значению ( 1 ) только вектору вида ( \begin{pmatrix} 1 \ 0 \end{pmatrix} ), что говорит о том, что ( A ) не имеет полного набора линейно независимых собственных векторов (размер жордановой клетки равен 2).
Матрица ( B ):
Очевидно, ( B ) является диагональной и, следовательно, диагонализуема.Таким образом, хотя матрицы ( A ) и ( B ) и коммутируют, матрица ( A ) не является диагонализуемой. Это иллюстрирует, что коммутирование не гарантирует одновременной диагонализуемости.
ВыводОшибка утверждения заключается в том, что наличие общего собственного значения или коммутативной природы не является достаточным условием для одновременной диагонализуемости, если хотя бы одна из матриц не обладает свойством быть диагонализуемой.