Обнаружение угла

редактировать
Результат типичного алгоритма обнаружения угла

Обнаружение угла - это подход, используемый в компьютерном зрении системы для извлечения определенных видов изображений и определения содержания. Обнаружение углов часто используется в обнаружении движения, изображения регистрации, слежении за видео, мозаике изображения, сшивании панорамы, 3D-реконструкция и распознавание объектов. Обнаружение углов перекликается с темой обнаружения точек интереса.

Содержание
  • 1 Формализация
  • 2 Алгоритм обнаружения углов Моравека
  • 3 Алгоритмы обнаружения углов Харриса и Стивенса / Ши - Томази
  • 4 Угловой детектор Ферстнера
  • 5 Многомасштабный оператор Харриса
  • 6 Метод кривизны кривой уровня
  • 7 Лапласиан Гауссиана, разности гауссиана и определитель точек интереса в пространстве шкалы Гессе
  • 8 Масштабные точки интереса на основе критериев силы признаков Линдеберга-Гессе
  • 9 Аффинно-адаптированные операторы точек интереса
  • 10 Алгоритм обнаружения углов Ванга и Брэди
  • 11 Детектор углов SUSAN
  • 12 Трайкович и Хедли Угловой детектор
  • 13 Детекторы признаков на основе AST
  • 14 Автоматический синтез детекторов
  • 15 Детекторы пространственно-временных точек интереса
  • 16 Библиография
  • 17 Справочные реализации
  • 18 См. также
  • 19 Внешние ссылки
Формализация

Угол может быть определен как пересечение Использование двух ребер. Угол также можно определить как точку, для которой существуют два доминирующих и разных направления кромок в локальной окрестности точки.

Интересная точка - это точка на изображении, которая имеет четко определенное положение и может быть надежно обнаружена. Это означает, что точка интереса может быть, но она также может быть, например, изолированной точкой локального максимума или минимума интенсивности, окончанием линии или точкой на кривой, где кривизна локально максимальна.

На практике большинства так называемых методов обнаружения точек обнаружения в целом, фактически термины «угол» и «точка интереса» используются более или менее взаимозаменяемо в литературе. Как следствие, если должны быть обнаружены только углы, необходимо провести локальный анализ обнаруженных точек интереса, чтобы определить какие из них являются реальными углами. Примерами обнаружения краев, которые можно использовать с постобработкой для обнаружения, являются оператор Кирша и набор маскирования Фрей-Чена.

«Угол», «точка интереса» и «функция» "используются в литературе как синонимы, запутывая проблему. В частности, существует несколько детекторов больших двоичных объектов, которые можно назвать« операторами точки » интереса », но иногда ошибочно называют« детекторами углов ». Кроме того, существует понятие обнаружение гребня для обнаружения присутствия удлиненных объектов.

Угловые детекторы обычно не очень надежны и часто требуют больших избыточных возможностей,

Одним из факторов, определяющих качество детектора углов, его способность обнаруживать один и тот же угол на нескольких похожих изображениях в условиях разного освещения, перемещения, поворота и других преобразований.

Простым подходом к обнаружению углов в изображениях является использование корреляции, но это требует больших вычислительных затрат и неоптимально. ьзуемый альтернативный подход основан на методе, предложенном Харрисом и Стивенсом (ниже), который, в свою очередь, является улучшением метода Моравека.

Алгоритм обнаружения углов Моравец

Это один из самых ранних алгоритмов обнаружения углов, определяющий угол как точку с нижним самоподобием. Алгоритм проверяет каждый пиксель в изображении, чтобы увидеть, присутствует ли угол, насколько он похож на пиксель на соседние, в степени перекрывающиеся участки. Сходство измеряется как сумма квадратов разностей (SSD) между поставщиками двух участков. Меньшее число указывает на большее сходство.

Если пиксель находится в области одинаковой интенсивности, то соседние участки будут выглядеть одинаково. Если пиксель находится на краю, то следующие участки в направлении, перпендикулярном краю, будут выглядеть совершенно иначе, но соседние участки в направлении, параллельном краю, приведут только к небольшому изменению. Если пиксель находится на объекте с вариациями во всех направлениях, то ни один из ближайших участков не будет выглядеть одинаково.

Сила угла между определяется как наименьший SSD патчем и его соседями (горизонтально, вертикально и по двум диагоналям). Причина в том, что если это число велико, то вариация по всем сдвигам либо равна ему, либо больше, поэтому при захвате все соседние участки выглядят по-разному.

Если показатель прочности вычисляется для всех местоположений, то он локально максимален для одного местоположения, указывает, что в нем присутствует интересующий объект.

Как указывает Моравец, одна из основных проблем с этим оператором заключается в том, что он не изотропный : если присутствует край, который не находится в направлении соседей (горизонтальный, вертикальный или диагональный), тогда Самый маленький SSD будет большим, и край будет неправильно выбран в качестве точки интереса.

Алгоритмы определения углов Харриса и Стивенса / Ши-Томази

См. Харрис Угловой детектор.

Харрис и Стивенс усовершенствовали детектор углов Моравека, рассматривая разницу углов непосредственно по направлению вместо использования смещенных участков. (Эта угловая оценка часто используется как автокорреляция, поскольку этот термин используется в статье, которая описывает этот детектор. Однако математические данные в статье показывают, что используется сумма квадратов раз.)

ограничения общности мы будем предполагать, что используетсямерное изображение в градациях серого. Пусть это изображение будет задано как I {\ displaystyle I}I . Возьмите фрагмент изображения в области (u, v) {\ displaystyle (u, v)}(u, v) и сместите его на (x, y) {\ displaystyle (x, y)}(x, y) . Взвешенная сумма квадратов разностей (SSD) между этими патчами, обозначенная S {\ displaystyle S}S , определяется как:

S (x, y) = ∑ u ∑ vw (U, v) (I (U + X, v + Y) - I (U, v)) 2 {\ Displaystyle S (x, y) = \ sum _ {u} \ sum _ {v} w (u, v) \, \ влево (I (u + x, v + y) -I (u, v) \ right) ^ {2}}S (x, y) = \ sum_u \ sum_v w (u, v) \, \ left (I ( u + x, v + y) - I (u, v) \ right) ^ 2

I (u + x, v + y) {\ displaystyle I (u + x, v + y)}I (u + x, v + y) может быть аппроксимировано разложением Тейлора. Пусть I x {\ displaystyle I_ {x}}I_ {x} и I y {\ displaystyle I_ {y}}I_y будут частными производными из I {\ displaystyle I}I , такое, что

I (u + x, v + y) ≈ I (u, v) + I x (u, v) x + I y (u, v) y {\ displaystyle I (u + x, v + y) \ приблизительно I (u, v) + I_ {x} (u, v) x + I_ {y} (u, v) y }I (u + x, v + y) \ приблизительно I (u, v) + I_ {x} (u, v) x + I_ {y} (u, v) y

Это дает приближение

S (x, y) ≈ ∑ u ∑ vw (u, v) (I x (u, v) x + I y (u, v) y) 2, {\ displaystyle S (x, y) \ приблизительно \ sum _ {u} \ sum _ {v} w (u, v) \, \ left (I_ {x} (u, v) x + I_ {y} (u, v) y \ right) ^ {2},}S (x, y) \ приблизительно \ sum_u \ sum_v w (u, v) \, \ left (I_x (u, v) x + I_y (u, v) y \ справа) ^ 2,

может быть записан в матричной форме:

S (x, y) ≈ (xy) A (xy), {\ displaystyle S (x, y) \ приблизительно {\ begin {pmatrix} x y \ end {pmatrix}} A {\ begin {pmatrix} x \\ y \ end {pmatrix}},}S (x, y) \ приблизительно \ begin in {pmatrix} x y \ end {pmatrix} A \ begin {pmatrix} x \\ y \ end {pmatrix},

где A - тензор структуры ,

A = ∑ u ∑ vw (u, v) [I x (u, v) 2 I x (u, v) I y (u, v) I x (u, v) I y (u, v) I y ( u, v) 2] = [⟨я Икс 2⟩ ⟨Я Икс Я Y⟩ ⟨Я Икс Я Y⟩ ⟨Я Y 2⟩] {\ Displaystyle A = \ sum _ {u} \ sum _ {v} w (u, v) {\ begin {bmatrix} I_ {x} (u, v) ^ {2} I_ {x} (u, v) I_ {y} (u, v) \\ I_ {x} (u, v) I_ {y} (u, v) I_ {y} (u, v) ^ {2} \ end {bmatrix}} = {\ begin {bmatrix} \ langle I_ {x } ^ {2} \ rangle \ langle I_ {x} I_ {y} \ rangle \\\ langle I_ {x} I_ {y} \ rangle \ langle I_ {y} ^ {2} \ rangle \ end { bmatrix}}}{\ displaystyle A = \ sum _ {u} \ sum _ {v} w (u, v) {\ begin { bmatrix} I_ {x} (u, v) ^ {2} I_ {x} (u, v) I_ {y} (u, v) \\ I_ {x} (u, v) I_ {y} ( u, v) I_ {y} (u, v) ^ {2} \ end {bmatrix}} = {\ begin {bmatrix} \ langle I_ {x} ^ {2} \ rangle \ langle I_ {x} Я_ {y} \ rangl e \\\ langle I_ {x} I_ {y} \ rangle \ langle I_ {y} ^ {2} \ rangle \ end {bmatrix}}}

На словах мы находим ковариацию частной производной плотности изображения I {\ displaystyle I}I по отношению к осям x {\ displaystyle x}x и y {\ displaystyle y}y .

Угловые скобки обозначают усреднение (то есть суммирование по (u, v) {\ displaystyle (u, v)}(u, v) ). w (u, v) {\ displaystyle w (u, v)}{\ displaystyle w (u, v)} обозначает тип окна, которое скользит по изображению. Если используется прямоугольный фильтр , ответ будет анизотропным, но если используется гауссовский, то ответ будет изотропным.

угол (или вообще точка интереса) характеризуется большой изменением S {\ displaystyle S}S во всех направлениях вектора (xy) {\ displaystyle {\ begin {pmatrix} x y \ end {pmatrix}}}\ begin {pmatrix} x y \ end {pmatrix} . Анализируя собственные значения A {\ displaystyle A}A , эту характеристику можно выразить следующим образом: A {\ displaystyle A}A должно иметь два "больших собственных значения для интересующей Основываясь на величинах собственных значений, на основании этого аргумента можно сделать следующие выводы:

  1. Если λ 1 ≈ 0 {\ displaystyle \ lambda _ {1} \ приблизительно 0}\ lambda_1 \ приблизительно 0 и λ 2 ≈ 0 {\ displaystyle \ lambda _ {2} \ приблизительно 0}\ lambda_2 \ приблизительно 0 , затем этот пиксель (x, y) {\ displaystyle (x, y)}(x, y) не имеет интересных особенностей.
  2. Если λ 1 ≈ 0 {\ displaystyle \ lambda _ {1} \ приблизительно 0}\ lambda_1 \ приблизительно 0 и λ 2 {\ displaystyle \ lambda _ {2}}\ лямбда _ {2} имеет большое положительное значение, тогда обнаружено ребро.
  3. Если λ 1 {\ displaystyle \ lambda _ {1}}\ lambda_1 и λ 2 {\ displaystyle \ lambda _ {2}}\ lambda_2 \ lambda_2 имеют большие положительные значения, тогда обнаруживается угол.

Харрис и Стивенс отмечают, что точное вычисление собственных значений вычислительно затратно, так как требует вычисления квадратного корня и вместо этого предлагает свою функцию функцию M c {\ displaystyle M_ {c}}M_c , где κ {\ displaystyle \ kappa}\ каппа - настраиваемый параметр чувствительности eter:

M c = λ 1 λ 2 - κ (λ 1 + λ 2) 2 = det ⁡ (A) - κ след 2 ⁡ (A) {\ displaystyle M_ {c} = \ lambda _ {1} \ lambda _ {2} - \ kappa \, (\ lambda _ {1} + \ lambda _ {2}) ^ {2 } = \ operatorname {det} (A) - \ kappa \, \ operatorname {trace} ^ {2} (A)}M_c = \ lambda_1 \ lambda_2 - \ kappa \, (\ lambda_1 + \ lambda_2) ^ 2 = \ operatorname {det} (A) - \ kappa \, \ operatorname {trace} ^ 2 (A)

Следовательно, алгоритму не нужно фактически вычислять разложение по собственным значениям <матрицы 152>A {\ displaystyle A}A , а вместо этого достаточно для оценки детерминанта и трассы для A {\ displaystyle A}A , чтобы найти углы или, скорее, точки интереса в целом.

Угловой детектор Ши - Томази напрямую вычисляет min (λ 1, λ 2) {\ displaystyle min (\ lambda _ {1}, \ lambda _ {2})}мин (\ lambda_1, \ лямбда_2) потому что при предположениях углы более устойчивые для установки. Обратите внимание, что этот метод также иногда называют угловым детектором Канаде - Томази.

Значение κ {\ displaystyle \ kappa}\ каппа должно быть определено эмпирически, и в литературе значения в диапазоне 0,04–0,15 указаны как возможные.

Можно избежать установки параметра κ {\ displaystyle \ kappa}\ каппа , используя угловую меру Нобла M c ′ {\ displaystyle M_ {c} '}M_c', что составляет среднее гармоническое собственных значений:

M c ′ = 2 det ⁡ (A) trace ⁡ (A) + ϵ, {\ displaystyle M_ {c} '= 2 {\ frac {\ operatorname {det} (A)} {\ operatorname {trace} (A) + \ epsilon}},}M_{c}'=2{\frac {\operatorname {det}(A)}{\operatorname {trace}(A)+\epsilon }},

ϵ {\ displaystyle \ epsilon}\ epsilon является небольшим положительным постоянным.

Если A {\ displaystyle A}A можно интерпретировать как матрицу точности для положения угла, ковариационная матрица для положения угла: A - 1 {\ displaystyle A ^ {- 1}}{\ displaystyle A ^ {- 1}} , т.е.

1 ⟨I x 2⟩ ⟨I y 2⟩ - ⟨I x I y⟩ 2 [⟨I y 2⟩ - ⟨I x I y⟩ - ⟨I x I y⟩ ⟨I x 2⟩]. {\ displaystyle {\ frac {1} {\ langle I_ {x} ^ {2} \ rangle \ langle I_ {y} ^ {2} \ rangle - \ langle I_ {x} I_ {y} \ rangle ^ {2 }}} {\ begin {bmatrix} \ langle I_ {y} ^ {2} \ rangle - \ langle I_ {x} I_ {y} \ rangle \\ - \ langle I_ {x} I_ {y} \ rangle \ langle I_ {x} ^ {2} \ rangle \ end {bmatrix}}.}\ frac {1} {\ langle I_x ^ 2 \ rangle \ langle I_y ^ 2 \ rangle - \ langle I_x I_y \ rangle ^ 2} \ begin {bmatrix} \ langle I_y ^ 2 \ rangle - \ langle I_x I_y \ rangle \\ - \ langle I_x I_y \ rangle \ langle I_x ^ 2 \ rangle \ end {bmatrix}.

Сумма собственных значений A - 1 {\ displaystyle A ^ {- 1}}{\ displaystyle A ^ {- 1}} , которая в этом может быть интерпретирована как обобщенная дисперсия (или «общая неопределенность») углового положения, связано с угловой мерой Нобла M c '{\ displaystyle M_ {c}'}M_c'по следующему уравнению:

λ 1 (A - 1) + λ 2 (A - 1) = trace ⁡ (A) det ⁡ (A) ≈ 2 M c ′. {\ displaystyle \ lambda _ {1} (A ^ {- 1}) + \ lambda _ {2} (A ^ {- 1}) = {\ frac {\ operatorname {trace} (A)} {\ operatorname { det} (A)}} \ приблизительно {\ frac {2} {M_ {c} '}}.}{\displaystyle \lambda _{1}(A^{-1})+\lambda _{2}(A^{-1})={\frac {\operatorname {trace} (A)}{\operatorname {det} (A)}}\approx {\frac {2}{M_{c}'}}.}
Детектор углового
Определение углов с использованием алгоритма Ферстнера

В некоторых случаях можно вычислить положение угла с субпиксельной точностью. Чтобы достичь приближенного решения, алгоритм Ферстнера находит точку, ближайшую ко всем касательным линии угла в данном окне, и представляет собой решение по методу наименьших квадратов. Алгоритм основан на том факте, что для идеального угла касательной линии пересекаются в одной точке точки.

Уравнение касательной T x ′ (x) {\ displaystyle T _ {\ mathbf {x '}} (\ mathbf {x})}T_{{{\mathbf {x'}}}}({\mathbf {x}})в пикселе Икс ′ {\ Displaystyle \ mathbf {x '}}\mathbf {x'} определяется по формуле:

T x ′ (x) = ∇ I (x ′) ⊤ (x - x ′) = 0 {\ Displaystyle T _ {\ mathbf {x '}} (\ mathbf {x}) = \ nabla I (\ mathbf {x'}) ^ {\ top} (\ mathbf {x} - \ mathbf {x '}) = 0}T_{{\mathbf {x'}}}({\mathbf x})=\nabla I({\mathbf {x'}})^{{\top }}({\mathbf {x}}-{\mathbf {x'}})=0

где ∇ I (x ′) = [I x, I y] ⊤ {\ displaystyle \ nabla I (\ mathbf {x '}) = [I _ {\ mathbf {x}}, I_ { \ mathbf {y}}] ^ {\ top}}\nabla I(\mathbf{x'})=[I_{\mathbf{x}},I_{\mathbf{y}}]^{\top}- вектор градиента изображения I {\ displaystyle I}I в x ′ {\ displaystyle \ mathbf { x '}}\mathbf {x'} .

Точка x 0 {\ displaystyle \ mathbf {x} _ {0}}\ mathbf {x} _ {0} ближайшая ко всем касательным линиям в окне N {\ displaystyle N}N :

x 0 = argmin x ∈ R 2 × 1 ∫ x ′ ∈ NT x ′ (x) 2 dx ′ {\ displaystyle \ mathbf {x} _ {0} = {\ underset {\ mathbf {x} \ in \ mathbb {R} ^ {2 \ times 1}} {\ operatorname {argmin}}} \ int _ {\ mathbf {x '} \ in N} T_ {\ mathbf {x '}} (\ mathbf {x}) ^ {2} d \ mathbf {x'}}{\displaystyle \mathbf {x} _{0}={\underset {\mathbf {x} \in \mathbb {R} ^{2\times 1}}{\operatorname {argmin} }}\int _{\mathbf {x'} \in N}T_{\mathbf {x'} }(\mathbf {x})^{2}d\mathbf {x'} }

Расстояние от x 0 {\ displaystyle \ mathbf {x} _ {0}}\ mathbf {x} _ {0} до касательных линий T x ′ {\ displaystyle T _ {\ mathbf {x '}}}T_{{{\mathbf {x'}}}}взвешивается по величине градиента, что придает большее значение касательным, проходящим через пиксели с сильными градиентами.

Решение относительно x 0 {\ displaystyle \ mathbf {x} _ {0}}\ mathbf {x} _ {0} :

x 0 = argmin x ∈ R 2 × 1 ∫ x ′ ∈ N (∇ I (x ′) ⊤ (x - x ′)) 2 dx ′ = argmin x ∈ R 2 × 1 ∫ x ′ ∈ N (x - x ′) ⊤ ∇ I (x ′) ∇ I (x ′) ⊤ (x - x ′) dx ′ знак равно argmin x ∈ R 2 × 1 (x ⊤ A x - 2 x ⊤ b + c) {\ displaystyle {\ begin {align} \ mathbf {x} _ {0} = {\ underset {\ mathbf {x} \ in \ mathbb {R} ^ {2 \ times 1}} {\ operatorname {argmin}}} \ int _ {\ mathbf {x '} \ in N} (\ nabla I (\ mathbf {x '}) ^ {\ top} (\ mathbf {x} - \ mathbf {x'})) ^ {2} d \ mathbf {x '} \\ = {\ underset {\ mathbf {x} \ in \ mathbb {R} ^ {2 \ times 1}} {\ operatorname {argmin}}} \ int _ {\ mathbf {x '} \ in N} (\ mathbf {x} - \ mathbf {x'}) ^ { \ вверх} \ nabla I (\ mathbf {x '}) \ nabla I (\ mathbf {x'}) ^ {\ top} (\ mathbf {x} - \ mathbf {x '}) d \ mathbf {x' } \\ = {\ underset {\ mathbf {x} \ in \ mathbb {R} ^ {2 \ times 1}} {\ operatorname {argmin}}} \, (\ mathbf {x} ^ {\ top} А \ mathbf {x} -2 \ mathbf {x} ^ {\ top} \ ma thbf {b} + c) \ end {align}}}{\displaystyle {\begin{aligned}\mathbf {x} _{0}={\underset {\mathbf {x} \in \mathbb {R} ^{2\times 1}}{\operatorname {argmin} }}\int _{\mathbf {x'} \in N}(\nabla I(\mathbf {x'})^{\top }(\mathbf {x} -\mathbf {x'}))^{2}d\mathbf {x'} \\={\underset {\mathbf {x} \in \mathbb {R} ^{2\times 1}}{\operatorname {argmin} }}\int _{\mathbf {x'} \in N}(\mathbf {x} -\mathbf {x'})^{\top }\nabla I(\mathbf {x'})\nabla I(\mathbf {x'})^{\top }(\mathbf {x} -\mathbf {x'})d\mathbf {x'} \\={\underset {\mathbf {x} \in \mathbb {R} ^{2\times 1}}{\operatorname {argmin} }}\,(\mathbf {x} ^{\top }A\mathbf {x} -2\mathbf {x} ^{\top }\mathbf {b} +c)\end{aligned}}}

A ∈ R 2 × 2, b ∈ R 2 × 1, c ∈ р {\ Displaystyle А \ в \ mathbb {R} ^ {2 \ т imes 2}, {\ textbf {b}} \ in \ mathbb {R} ^ {2 \ times 1}, c \ in \ mathbb {R}}A \ in \ mathbb {R} ^ {2 \ times 2}, \ textbf {b} \ in \ mathbb {R} ^ {2 \ times 1}, c \ in \ mathbb {R} определяет как:

A = ∫ ∇ I (x ′) ∇ I (x ′) ⊤ dx ′ b = ∫ ∇ I (x ′) ∇ I (x ′) ⊤ x ′ dx ′ c = ∫ x ′ ⊤ ∇ I (x ′) ∇ I ( Икс ') ⊤ Икс' dx '{\ Displaystyle {\ begin {align} A = \ int \ nabla I (\ mathbf {x'}) \ nabla I (\ mathbf {x '}) ^ {\ top} d \ mathbf {x '} \\\ mathbf {b} = \ int \ nabla I (\ mathbf {x'}) \ nabla I (\ mathbf {x '}) ^ {\ top} \ mathbf {x'} d \ mathbf {x '} \\ c = \ int \ mathbf {x'} ^ {\ top} \ nabla I (\ mathbf {x '}) \ nabla I (\ mathbf {x'}) ^ {\ top} \ mathbf {x '} d \ mathbf {x'} \\\ end {align}}} \begin{align} A=\int \nabla I(\mathbf{x'})\nabla I(\mathbf{x'})^{\top}d\mathbf{x'}\\ \mathbf{b}=\int \nabla I(\mathbf{x'})\nabla I(\mathbf{x'})^{\top}\mathbf{x'}d\mathbf{x'}\\ c=\int \mathbf{x'}^{\top}\nabla I(\mathbf{x'})\nabla I(\mathbf{x'})^{\top}\mathbf{x'}d\mathbf{x'}\\ \end{align}

Минимизация этого уравнения может быть выполнена путем дифференцирования по x {\ displaystyle x}x и установив его равным 0:

2 A x - 2 b = 0 ⇒ A x = b {\ displaystyle 2A \ mathbf {x} -2 \ mathbf {b} = 0 \ Rightarrow A \ mathbf {x} = \ mathb f {b}}2A \ mathbf {x} -2 \ mathbf {b} = 0 \ Rightarrow A \ mathbf {x} = \ mathbf {b}

Обратите внимание, что A ∈ R 2 × 2 {\ displaystyle A \ in \ mathbb {R} ^ {2 \ times 2}}A \ in \ mathbb {R} ^ {2 \ times 2} - это структурный тензор. Чтобы уравнение имело решение, A {\ displaystyle A}A должен быть обратимым, что означает, что A {\ displaystyle A}A должен иметь полный ранг (ранг 2). Таким образом, решение

x 0 = A - 1 b {\ displaystyle x_ {0} = A ^ {- 1} \ mathbf {b}}x_ {0} = A ^ {- 1} \ mathbf {b}

существует только в том случае, если фактический угол существует в окне N {\ displaystyle N}N .

Линдеберг представил методологию автоматического выбора масштаба для этого метода угловой локализации путем минимизации нормализованной невязки

d ~ min = c - b TA - 1 b trace A {\ displaystyle {\ tilde {d }} _ {min} = {\ frac {cb ^ {T} A ^ {- 1} b} {{\ t_dv {trace}} A}}}\ tilde {d} _ {min} = \ frac {c - b ^ TA ^ {- 1} b} {\ t_dv {trace} A}

в масштабе. Таким образом, способ позволяет автоматически адаптировать уровни шкалы для вычислений градиентов изображения к уровню шума в данных изображения, выбирая более высокие уровни шкалы для зашумленных данных изображения и более тонкие уровни шкалы для почти идеальных угловидных структур.

Примечания:

  • c {\ displaystyle c}c можно рассматривать как остаток при вычислении решения методом наименьших квадратов: if c = 0 {\ displaystyle c = 0}c = 0 , то ошибки не было.
  • этот алгоритм можно модифицировать для вычислений круговых объектов, заменив касательные на нормальные.
Мультимасштабный оператор Харриса

Вычисление второй матрицы моментов (иногда также называемой тензором структуры ) A {\ displaystyle A}A в операторе Харриса требует вычислений из производных изображений I x, I y {\ displaystyle I_ {x}, I_ {y}}I_x, I_y в области изображения, а также суммирование нелинейных комбинаций этих производных по локальным изменениям. Временное вычисление производных обычно включает этапы сглаживания масштабного пространства для рабочего определения оператора Харриса требуются два масштабных проекта: (i) локальный масштаб для сглаживания перед вычислением производных изображений, (ii) шкала интеграции для накопления нелинейных операций над производными операторами в интегрированном дескрипторе изображения.

Если I {\ displaystyle I}I обозначает яркость исходного изображения, пусть L {\ displaystyle L}L обозначает масштаб пространственное представление из I {\ displaystyle I}I , полученное сверткой с гауссовым ядром

g (x, y, t) = 1 2 π te - (x 2 + y 2) / 2 t {\ displaystyle g (x, y, t) = {\ frac {1} {2 {\ pi} t}} e ^ {- (x ^ {2} + y ^ {2}) / 2t}}g (x, y, t) = {\ frac {1} { 2 {\ pi} t}} e ^ {{- (x ^ {2} + y ^ {2})) / 2t}}

с параметром локального масштаба t {\ displaystyle t}t :

L (x, y, t) = g (x, y, t) ∗ I (x, y) {\ displaystyle L (Икс, Y, T) \ = g (x, y, t) * I (x, y)}L (x, y, t) \ = g (x, y, t) * I (x, y)

и пусть L x = ∂ x L {\ displaystyle L_ {x} = \ partial _ {x} L}L_x = \ partial_x L и L y = ∂ y L {\ displaystyle L_ {y} = \ partial _ {y} L}L_y = \ partial_y L обозначают частные производные от L {\ displaystyle L}L . Кроме того, введите гауссову оконную функцию g (x, y, s) {\ displaystyle g (x, y, s)}g (x, y, s) с параметром масштаба интегрирования s {\ displaystyle s}s . Тогда многомасштабная матрица второго момента может быть определена как

μ (x,у; t, s) = ∫ ξ = - ∞ ∞ ∫ η = - ∞ ∞ [L x 2 (x - ξ, y - η; t) L x (x - ξ, y - η; t) L y (x - ξ, y - η; t) L x (x - ξ, y - η; t) L y (x - ξ, y - η; t) L y 2 (x - ξ, y - η; t)] g (ξ, η; s) d ξ d η. {\ displaystyle \ mu (x, y; t, s) = \ int _ {\ xi = - \ infty} ^ {\ infty} \ int _ {\ eta = - \ infty} ^ {\ infty} {\ begin {bmatrix} L_ {x} ^ {2} (x- \ xi, y- \ eta; t) L_ {x} (x- \ xi, y- \ eta; t) \, L_ {y} (x - \ xi, y- \ eta; t) \\ L_ {x} (x- \ xi, y- \ eta; t) \, L_ {y} (x- \ xi, y- \ eta; t) L_ {y} ^ {2} (x- \ xi, y- \ eta; t) \ end {bmatrix}} g (\ xi, \ eta; s) \, d \ xi \, d \ eta.}\ mu (x, y; t, s) = \ int _ {{\ xi = - \ infty}} ^ {{\ infty}} \ int _ {{\ eta = - \ infty} } ^ {{\ infty}} {\ begin {bmatrix} L_ {x} ^ {2} (x- \ xi, y- \ eta; t) L_ {x} (x- \ xi, y- \ eta; t) \, L_ {y} (x- \ xi, y- \ eta; t) \\ L_ {x} (x- \ xi, y- \ eta; t) \, L_ {y} (x- \ xi, y- \ eta; t) L_ {y} ^ {2} (x- \ xi, y- \ eta; t) \ end {bmatrix}} g (\ xi, \ eta; s) \, d \ xi \, d \ eta.

Затем мы можем вычислить собственные значения μ {\ displaystyle \ mu}\ mu таким же образом, как собственные значения A {\ displaystyle A}A и определить multi - масштабная угловая мера Харриса как

M c (x, y; t, s) = det ⁡ (μ (x, y; t, s)) - κ trace 2 ⁡ (μ (x, y; t, s)) {\ displaystyle M_ {c} (x, y; t, s) = \ operatorname {det} (\ mu (x, y; t, s)) - \ kappa \, \ operatorname {trace} ^ {2} (\ mu (x, y; t, s))}M_c (x, y; t, s) = \ operatorname {det} (\ mu (x, y; t, s)) - \ kappa \, \ operatorname {trace} ^ 2 (\ mu (x, y; t, s)) .

Относительно выбора местного масштаба t {\ displaystyle t}t и параметра масштаба интегрирования s {\ displaystyle s}s , эти параметры масштаба обычно связаны с параметром относительного интегрированного масштаба γ {\ displaystyle \ gamma}\ gamma такой, что s = γ 2 t {\ displaystyle s = \ gamma ^ {2} t}s = \ gamma ^ 2 t , где γ {\ displaystyle \ gamma}\ gamma обычно выбирается в интервале [1, 2] {\ displaystyle [1, 2]}[1, 2] . Таким образом, мы можем вычислить многомасштабную угловую меруриса M c (x, y; t, γ 2 t) {\ displaystyle M_ {c} (x, y; t, \ gamma ^ {2} t)}M_c (x, y; t, \ гамма ^ 2 t) в любом масштабе t {\ displaystyle t}t в масштабном пространстве, чтобы получить многомасштабный детектор углов, который реагирует на угловые структуры различных размеров в области изображения.

На практике многомасштабный детектор углов часто дополняется этапом выбора шкалы, где нормированный по шкале лапласовский оператор

norm 2 L (x, y; t) = t ∇ 2 L (Икс, Y, T) знак равно T (L xx (x, y, t) + L yy (x, y, t)) {\ displaystyle \ nabla _ {norm} ^ {2} L (x, y; t) \ = t \ nabla ^ {2} L (x, y, t) = t (L_ {xx} (x, y, t) + L_ {yy} (x, y, t))}\ nabla _ {{norm}} ^ {2} L (x, y; t) \ = t \ nabla ^ {2} L (x, y, t) = t (L _ {{xx}} (x, y, t) + L _ {{yy}} (x, y, t))

вычисляются в каждом масштабе в пространстве- масштабе и адаптированные масштабу угловые точки с автоматическим масштабом («оператор Харриса-Лапласа») вычисляются из точек, которые одновременно действуют:

  • пространственными максимумами многомасштабной угловой меры M с (Икс, Y; T, γ 2 T) {\ Displaystyle M_ {c} (x, y; t, \ gamma ^ {2} t)}M_c (x, y; t, \ гамма ^ 2 t)
(x ^, y ^; t) = argmaxlocal (Икс, Y) ⁡ M с (Икс, Y ; T, γ 2 T) {\ Displaystyle ({\ hat {x}}, {\ hat {y}}; t) = \ operatorname {argmaxlocal} _ {(x, y)} M_ {c} (x, y; t, \ gamma ^ {2} t)}({\ hat {x}}, {\ hat {y}}; t) = \ operatorname {argmaxlocal} _ {{(x, y) }} M_ {c} (x, y; t, \ gamma ^ {2} t)
  • локальные максимумы или минимумы по шкалам нормированного по мас штабу оператора лапласа ∇ norm 2 (x, у, т) {\ Displaystyle \ набла _ {норма} ^ {2} (x, y, t)}\ nabla _ {{norm}} ^ {2} (x, y, t) :
t ^ = argmaxminlocal t ⁡ ∇ n или m 2 L (х ^, у ^; т) {\ displaystyle {\ hat {t}} = \ operatorname {argmaxminlocal} _ {t} \ nabla _ {norm} ^ {2} L ({\ hat {x}}, {\ hat {y}}; t)}\ hat {t} = \ operatorname {argmaxminlocal} _ {t} \ nabla ^ 2_ {norm} L (\ hat {x}, \ hat {y}; t)
Метод кривизны кривой уровня

Более ранний подход к обнаружению углов заключался в обнаружении точек, в кривизна кривых уровня и величины градиента одновременно велики. Дифференциальный способ обнаружения точек состоит в вычислении измененной кривой уровня (произведение кривизны кривой уровня и уровня градиента, возведенной в степени трех)

κ ~ (x, y; t) = L x 2 L yy + L y 2 L xx - 2 L x L y L ху {\ displaystyle {\ tilde {\ kappa}} (x, y; t) = L_ {x} ^ {2} L_ {yy} + L_ {y} ^ {2} L_ { xx} -2L_ {x} L_ {y} L_ {xy}}{\ тильда {\ kappa}} (x, y; t) = L_ {x} ^ {2} L _ {{yy}} + L_ {y} ^ {2} L _ {{xx}} - 2L_ {x} L_ {y} L _ {{ xy}}

и для обнаружения положительных максимумов и отрицательных минимумов этого дифференциального выражения в некотором масштабе t {\ displaystyle t}t в представлении пространства масштаба L {\ displaystyle L}L исходного изображения. Однако основная проблема при вычислении объекта кривизны измененной кривой уровня в едином масштабе заключается в том, что он может быть чувствителен к шуму и к выбору уровня шкалы. Лучшим методом является вычисление γ {\ displaystyle \ gamma}\ gamma -нормализованной кривизны измененной кривой уровня

κ norm ~ (x, y; t) = t 2 γ (L x 2 L yy + L y 2 L xx - 2 L x L y L ху) {\ displaystyle {\ tilde {\ kappa _ {norm}}} (x, y; t) = t ^ {2 \ gamma} (L_ {x} ^ {2} L_ {yy} + L_ {y} ^ {2} L_ {xx} -2L_ {x} L_ {y} L_ {xy})}\ tilde {\ kappa_ {norm}} (x, y; t) = t ^ {2 \ gamma} (L_x ^ 2 L_ {yy} + L_y ^ 2 L_ {xx} - 2 L_x L_y L_ {xy})

с γ = 7/8 {\ displaystyle \ gamma = 7/8}\ gamma = 7/8 и для обнаружения знаков экстремумов масштабного пространства этого выражения, то есть точки и масштабов, которые являются положительными максимумами и отрицательными минимумами по отношению к пространству и масштабам

(х ^, у ^; т ^) = argminmaxlocal (х, у; т) ⁡ κ ~ норма (х, у; т) {\ Displaystyle ({\ шляпа {х}}, {\ шляпа {у}}; {\ hat {t }}) = \ operatorname {argminmaxlocal} _ {(x, y; t)} {\ tilde {\ kappa}} _ {norm} (x, y; t)}({\ hat {x}}, {\ hat {y}}; {\ hat {t}}) = \ operatorname {argminmaxlocal} _ {{(x, y; t)}} {\ tilde {\ kappa}} _ {{norm}} (x, y ; t)

в сочетании с дополнительным шагом локализации для обработки увеличения ошибки локализации в более грубых масштабах. Таким образом, большие значения масштаба связаны с закругленными углами с небольшой пространственной протяженностью. Этот подход является первым детектором углового с автоматическим выбором масштаба (до «оператора Харриса-Лапласа» выше) и использовался для установки углов при крупномасштабных вариациях в области изображения и для сопоставления угловых характеристик с краями для вычисления структурных характеристик изображения. для распознавания объектов на основе geon.

лапласиан гауссиана, различия гауссиана и детерминант гессианских точек интереса в масштабном пространстве

LoG - это аббревиатура от слова лапласиана гауссиана, DoG - это аббревиатура, обозначающая разница гауссианов (DoG - это приближение к LoG), а DoH - это аббревиатура, обозначающая определитель гессиана. Все эти масштабно-инвариантные точки интереса извлекаются обнаружение экстремумов в масштабном измерении нормализованных по показателям измерений, т. Е. Точек в пространственных масштабах, где соответствующие различия выражения, нормализованные по масштабу, предполагают локальные экстремумы как по пространству, так и по масштабу

(x ^, y ^; t ^) = argminmaxlocal (x, y; t) ⁡ ( D норма L) (х, y; т) {\ displaystyle ({\ hat {x}}, {\ hat {y})}; {\ hat {t}}) = \ operatorname {argminmaxlocal} _ {(x, y; t)} (D_ {norm} L) (x, y; t)}{ \ displaystyle ({\ hat {x}}, {\ hat {y}}; {\ hat {t}}) = \ operatorname {argminmaxlocal} _ {(x, y; t)} (D_ {norm} L) (x, y; t)}

где D norm L { \ displaystyle D_ {norm} L}{\ displaystyle D_ {norm} L} обозначает соответствующую нормированную по масштабам отличительную сущность (определенную ниже).

Эти детекторы более полно возможностей в обнаружении blob. Нормированный по масштабу лапласиан гауссовских и разностных гауссовских характеристик (Lindeberg 1994, 1998; Lowe 2004)

∇ норма 2 L (x, y; t) = t (L xx + L yy) ≈ t (L (Икс, Y; T + Δ T) - L (Икс, Y; T)) Δ T {\ Displaystyle {\ begin {align} \ nabla _ {norm} ^ {2} L (x, y; t) = t \, (L_ {xx} + L_ {yy}) \ приблизительно {\ frac {t \ left (L (x, y; t + \ Delta t) -L (x, y; t) \ right)} {\ Delta t} } \ end {align}}}\ begin {align} \ nabla ^ 2_ {norm} L (x, y; t) = t \, (L_ {xx} + L_ {yy}) \ приблизительно \ frac {t \ left (L (x, y; t+ \ Delta t) - L (x, y; t) \ right) } {\ Delta t} \ end {align}

не очень высокоселективные функции, поскольку эти операторы могут также приводить к откликам вблизи краев. Чтобы способность улучшить обнаружение обнаружий детектора Гауссиана, детектор признаков, использованных в системе SIFT, использует дополнительный этап постобработки, где собственные значения элемента Гессиан изображения в масштабе обнаружения исследуются аналогично оператору Харриса. Такое изображение слишком похоже на кромку, когда имеется соотношение значений велико. Также можно определить лапласиан Линдеберга детектора гауссовских признаков, включающий дополнительный пороговую обработку для дополнительного дифференциального инварианта для подавления откликов вблизи краев.

Нормализованный по шкале определитель оператора Гессе (Lindeberg 1994, 1998)

det ⁡ H норма L = T 2 (L xx L yy - L xy 2) {\ displaystyle \ operatorname {det} H_ {norm } L = t ^ {2} (L_ {xx} L_ {yy} -L_ {xy} ^ {2})}\ operatorname {det} H_ {norm} L = t ^ 2 (L_ {xx} L_ {yy} - L_ {xy} ^ 2)

, с другой стороны, очень избирательно относится к хорошо локализованным функциям изображения и реагирует только тогда, когда есть значительные вариации уровня серого в двух направлениях изображения, и в этом и других отношениях является лучшим детектором точки интереса. чем лапласиан гауссиана. Определитель гессиана является аффинно-ковариантным отличительным выражением и имеет лучшие свойства выбора масштаба при преобразованиях аффинных изображений, чем оператор Лапласа (Lindeberg 2013, 2015). Экспериментально это означает, что определитель точки интереса Гессе имеет лучшие свойства эффективности при использовании Лапласа, что, в свою очередь, приводит к лучшей производительности сопоставления на основе изображений с точки зрения более высокой эффективности и более низких показателей точности 1

Свойства выбора шкалы, свойства аффинного преобразования и экспериментальные свойства этих и других детекторов интереса в масштабном пространстве подробно проанализированы в (Lindeberg 2013, 2015).

Точки интереса в пространстве на основе Измерение силы элементов Линдеберга по Гессе

На основе структурно-свойств матрицы Гессе H f {\ displaystyle Hf}{\ displaystyle Hf} функции f {\ displaystyle f}f и матрица второго момента (тензор структуры) μ {\ displaystyle \ mu}\ mu , например, проявляться в терминах аналогичных свойств преобразования при деформации аффинного изображения

(H f ') = A - T (H f) A - 1 {\ displaystyle (Hf') = A ^ {- T} \, (Hf) \, A ^ {- 1}}{\displaystyle (Hf')=A^{-T}\,(Hf)\,A^{-1}},
μ ′ = A - T μ A - 1 {\ displaystyle \ mu '= A ^ {- T} \, \ mu \, A ^ {- 1}}{\displaystyle \mu '=A^{-T}\,\mu \,A^{-1}},

Линдеберг (2013, 2015) великолепно определить четыре меры силы матрицы из структурного тензора (матрицы момента), как операторы Харриса и Ши-и-Томази из структурного тензора. В частности, он определил следующие беззнаковые и подписанные меры силы гессенских признаков:

  • беззнаковые меры силы гессенских признаков I:
D 1, норма L = {t 2 (det ⁡ HL - k trace 2 ⁡ HL), если det ⁡ HL - k трассировка 2 ⁡ HL>0 0 в случае потери} {\ displaystyle D_ {1, norm} L = {\ begin {Bmatrix} t ^ {2} \, (\ operatorname {det} HL-k \, \ operatorname {trace} ^ {2} HL) {\ t_dv {if}} \, \ operatorname {det} HL-k \, \ operatorname {trace} ^ {2} HL>0 \\ 0 {\ t_dv {иначе}} \ end {Bmatrix}}}{\displaystyle D_{1,norm}L={\begin{Bmatrix}t^{2}\,(\operatorname {det} HL-k\,\operatorname {trace} ^{2}HL){\t_dv{if}}\,\operatorname {det} HL-k\,\operatorname {trace} ^{2}HL>0 \\ 0 {\ t_dv {else}} \ end {Bmatrix}}}
  • мера силы гессенских признаков со знаком I:
D ~ 1, по L = {t 2 (det ⁡ HL - k trace 2 ⁡ HL), если det ⁡ HL - k trace 2 ⁡ HL>0 t 2 (det ⁡ HL + k trace 2 ⁡ HL), если det ⁡ HL + k trace 2 ⁡ HL < 0 0 otherwise } {\displaystyle {\tilde {D}}_{1,norm}L={\begin{Bmatrix}t^{2}\,(\operatorname {det} HL-k\,\operatorname {trace} ^{2}HL){\t_dv{if}}\,\operatorname {det} HL-k\,\operatorname {trace} ^{2}HL>0 \\ t ^ {2} \, (\ operatorname {det} HL + k \, \ operatorname {trace} ^ {2} HL) {\ t_dv {if}} \, \ operatorname {det} HL + k \, \ operatorna me {trace} ^ {2} HL <0\\0{\t_dv{otherwise}}\end{Bmatrix}}}{\displaystyle {\tilde {D}}_{1,norm}L={\begin{Bmatrix}t^{2}\,(\operatorname {det} HL-k\,\operatorname {trace} ^{2}HL){\t_dv{if}}\,\operatorname {det} HL-k\,\operatorname {trace} ^{2}HL>0 \\ t ^ {2} \, (\ имя оператора {det} HL + k \, \ operatorname {trace} ^ {2} HL) {\ t_dv {if}} \, \ operatorname {det} HL + k \, \ operatorname {trace} ^ {2} HL <0\\0{\t_dv{otherwise}}\end{Bmatrix}}}
  • беззнаковая мера силы гессенской характеристики II:
D 2, норма L = t min ⁡ (| λ 1 (H L) |, | λ 2 (H L) |) {\ displaystyle D_ {2, norm} L = t \, \ operatorname {min} (| \ lambda _ {1} (HL) |, | \ lambda _ {2} (HL) |)}{ \ displaystyle D_ {2, norm} L = t \, \ operatorname {min} (| \ lambda _ {1} (HL) |, | \ lambda _ {2} (HL) |)}
  • знаковая мера силы гессенской характеристики II:
D ~ 2, норма L = {t λ 1 (HL), если | λ 1 (H L) | < | λ 2 ( H L) | t λ 2 ( H L) if | λ 2 ( H L) | < | λ 1 ( H L) | t ( λ 1 ( H L) + λ 2 ( H L)) / 2 otherwise } {\displaystyle {\tilde {D}}_{2,norm}L={\begin{Bmatrix}t\,\lambda _{1}(HL){\t_dv{if}}\,|\lambda _{1}(HL)|<|\lambda _{2}(HL)|\\t\,\lambda _{2}(HL){\t_dv{if}}\,|\lambda _{2}(HL)|<|\lambda _{1}(HL)|\\t\,(\lambda _{1}(HL)+\lambda _{2}(HL))/2{\t_dv{otherwise}}\end{Bmatrix}}}{\ displaystyle {\ tilde {D}} _ { 2, норма} L = {\ begin {Bmatrix} t \, \ lambda _ {1} (HL) {\ t_dv {if}} \, | \ lambda _ {1} (HL) | <| \ lambda _ {2} (HL) | \\ t \, \ lambda _ {2} (HL) {\ t_dv {if}} \, | \ lambda _ {2} (HL) | <| \ lambda _ {1} (HL) | \\ t \, (\ lambda _ {1} (HL) + \ lambda _ {2} (HL)) / 2 {\ t_dv {otherw ise}} \ end {Bmatrix}}}

где след ⁡ HL = L xx + L yy {\ displaystyle \ operatorname {trace} HL = L_ {xx} + L_ {yy}}{\ displaystyle \ operatorname {trace} HL = L_ {xx} + L_ {yy}} и det ⁡ HL = L xx L yy - L xy 2 {\ displaystyle \ operatorname {det} HL = L_ {xx} L_ {yy} -L_ {xy} ^ {2}}{\ displaystyle \ operatorname {det} HL = L_ {xx} L_ {yy} -L_ {xy} ^ {2}} обозначают след и определитель Матрица Гессе HL {\ displaystyle HL}HL представления пространства масштаба L {\ displaystyle L}L в любом масштабе t {\ displaystyle t}t , тогда как

λ 1 (HL) = L pp = 1 2 (L xx + L yy - (L xx - L yy) 2 + 4 L xy 2) {\ displaystyle \ lambda _ { 1} (HL) = L_ {pp} = {\ frac {1} {2}} \ left (L_ {xx} + L_ {yy} - {\ sqrt {(L_ {xx} -L_ {yy}) ^ {2} + 4L_ {xy} ^ {2}}} \ right)}{\ di splaystyle \ lambda _ {1} (HL) = L_ {pp} = {\ frac {1} {2}} \ left (L_ {xx} + L_ {yy} - {\ sqrt {(L_ { xx} -L_ {yy}) ^ {2} + 4L_ {xy} ^ {2}}} \ right)}
λ 2 (HL) = L qq = 1 2 (L xx + L yy + (L xx - L yy) 2 + 4 L ху 2) {\ displaystyle \ lambda _ {2} (HL) = L_ {qq} = {\ frac {1} {2}} \ left (L_ {xx} + L_ {yy} + {\ sqrt {(L_ {xx} -L_ {yy}) ^ {2} + 4L_ {xy} ^ {2}}} \ right)}{\ displaystyle \ lambda _ {2} (HL) = L_ {qq} = {\ frac {1} {2}} \ left (L_ {xx} + L_ {yy} + {\ sqrt {(L_ {xx } -L_ {yy}) ^ {2} + 4L_ {xy} ^ {2}}} \ right)}

обозначают собственные значения матрицы Гессе.

Беззнаковая сила признака Гессе мера D 1, норма L {\ displaysty le D_ {1, norm} L}{\ displaystyle D_ {1, norm} L} реагирует на локальные экстремумы положительными значениями и нечувствителен к седловым точкам, тогда как знаковый показатель силы гессенских признаков D ~ 1, норма L {\ displaystyle {\ tilde {D}} _ {1, norm} L}{\ displaystyle {\ tilde {D}} _ {1, norm} L} дополнительно реагирует на седловые точки отрицательными значениями. Беззнаковая мера силы гессенской характеристики D 2, norm L {\ displaystyle D_ {2, norm} L}{\ displaystyle D_ {2, norm} L} нечувствительна к локальной полярности сигнала, тогда как знаковая мера силы гессенской характеристики D ~ 2, norm L {\ displaystyle {\ tilde {D}} _ {2, norm} L}{\ displaystyle {\ tilde {D}} _ {2, норма} L} реагирует на локальную полярность сигнала знаком его выхода.

В Lindeberg (2015) эти четыре дифференциальных объекта были объединены с выбором локального масштаба на основе обнаружения экстремумов в пространстве масштаба

(x ^, y ^; t ^) = argminmaxlocal (x, y; t) ⁡ (D норма L) (x, y; t) {\ displaystyle ({\ hat {x}}, {\ hat {y}}; {\ hat {t}}) = \ operatorname {argminmaxlocal} _ { (x, y; t)} (D_ {norm} L) (x, y; t)}{ \ displaystyle ({\ hat {x}}, {\ hat {y}}; {\ hat {t}}) = \ operatorname {argminmaxlocal} _ {(x, y; t)} (D_ {norm} L) (x, y; t)}

или масштабное связывание. Кроме того, сила гессенских признаков со знаком и без знака измеряет D 2, норма L {\ displaystyle D_ {2, norm} L}{\ displaystyle D_ {2, norm} L} и D ~ 2, норма L {\ displaystyle {\ тильда {D}} _ {2, norm} L}{\ displaystyle {\ tilde {D}} _ {2, норма} L} были объединены с дополнительным пороговым значением для D 1, norm L>0 {\ displaystyle D_ {1, norm} L>0}{\displaystyle D_{1,norm}L>0} .

Путем экспериментов по сопоставлению изображений при преобразованиях масштабирования на наборе данных плаката с 12 плакатами с согласованием нескольких ракурсов по преобразованиям масштабирования с коэффициентом масштабирования до 6 и вариациями направления обзора до угла наклона 45 градусов с локальными дескрипторами изображения определяется из переформулировок дескрипторов чистого изображения в операторах SIFT и SURF для измерения изображений в терминах операторов производной Гаусса (Gauss-SIFT и Gauss-SURF) вместо исходного SIFT, как определено из пирамиды изображения или пер в первоначальном SURF, как определено из вейвлетов Хаара, было показано масштабирование обнаружения точки интереса в пространстве на основе беззнакового показателя силы признаков Гессе D 1, норма L {\ displaystyle D_ {1, norm} L}{\ displaystyle D_ {1, norm} L} позволяет обеспечить лучшую производительность и лучшую производительность, чем интерес в масштабе пространства, полученный из определителя гессиана det ⁡ H norm L = t 2 (L xx L yy - L xy 2) {\ displaystyle \ operatorname {det} H_ {норма} L = t ^ {2} \, (L_ {xx} L_ {yy} -L_ {xy} ^ {2})}{\ displaystyle \ operatorname {det} H_ {norm} L = t ^ {2} \, (L_ {xx} L_ {yy} -L_ {xy} ^ {2})} . И беззнаковый показатель прочности гессенского элемента D 1, норма L {\ displaystyle D_ {1, norm} L}{\ displaystyle D_ {1, norm} L} , знаковый показатель прочности гессенского элемента D ~ 1, норма L {\ displaystyle { \ tilde {D}} _ {1, norm} L}{\ displaystyle {\ tilde {D}} _ {1, norm} L} и определитель гессиана det ⁡ H norm L {\ displaystyle \ operatorname {det} H_ {norm} L}{\ displaystyle \ operatorname {det} H_ {norm} L} допускает лучшую производительность, чем лапласиан гауссовского ∇ norm 2 L = t (L xx + L yy) {\ displaystyle \ nabla _ {norm} ^ {2} L = t \, (L_ {xx} + L_ { гг})}{\ displaystyle \ nabla _ {norm} ^ {2} L = t \, (L_ {xx} + L_ {yy})} . В сочетании с привязкой шкалы и дополнительным пороговым значением для D 1, norm L>0 {\ displaystyle D_ {1, norm} L>0}{\displaystyle D_{1,norm}L>0} , подписанный показатель силы гессенских элементов D ~ 2, норма L {\ displaystyle {\ tilde {D}} _ {2, norm} L}{\ displaystyle {\ tilde {D}} _ {2, норма} L} показал лучшую характеристику, чем лапласиан гауссовского ∇ norm 2 L {\ displaystyle \ nabla _ {norm} ^ {2} L }{\ displaystyle \ набла _ {норма} ^ {2} L} .

Кроме того, было показано, что все эти показатели на основе Матрица Гессе показывают, что все эти показатели на основе Матрица Гессе позволяют показать большее количество точек интереса и лучшее сопоставление по сравнению с оператором Харма и Ши-и-Томази. 403>

Теоретический анализ свойств выбора шкалы этих четырех мер силы признаков Гессе и других отличий х объектов для обнаружения в масштабах е, включая определение гессиана, приведен в Lindeberg. (2013) и анализ их свойств аффинного преобразования, а также экспериментальных свойств в Lindeberg (2015).

Аффинно-адаптированные операторы точки интереса

Точки интереса, полученные из многомасштабного метода Харриса с автоматическим выбором масштаба инвариантны к сдвигам, поворотам и равномерным масштабам в пространственной области. Однако изображения, входящие в систему компьютерного зрения, также подвержены перспективным искажениям. Чтобы получить оператор точки интереса, который более устойчивым к перспективным преобразованиям, естественным подходом является разработка детектора признаков, который инвариантен к аффинным преобразованиям. На практике аффинно-инвариантные точки интереса могут быть получены путем применения изображения адаптации аффинной формы, где форма сглаживающего ядра итеративно деформируется, чтобы соответствовать локальному фрагменту вокруг точки интереса, или, что эквивалентно, локальный фрагмент итеративно деформируется в то время как форма сглаживающего ядра остается вращательно-симметричной (Lindeberg 1993, 2008; Lindeberg and Garding 1997; Mikolajzcyk and Schmid 2004). Следовательно, помимо обычно используемого многомасштабного оператора Харриса, адаптация аффинной формы может быть применена к другим детекторам углов, перечисленным в этой статье, а также к дифференциальным детекторам капель, таким как лапласиан / разность гауссовского оператора, оператора Гессе - Лапласа.

Алгоритм обнаружения углов Ванга и Брэди

Детектор Ванга и Брейди рассматривает изображение как поверхность и ищет места с большой кривизной вдоль изображения край. Другими словами, алгоритм ищет места, где край быстро меняет направление. Оценка угла, C {\ displaystyle C}C , определяется по формуле

C = (δ 2 I δ t 2) 2 - c | ∇ I | 2, {\ displaystyle C = \ left ({\ frac {\ delta ^ {2} I} {\ delta {\ bf {{t} ^ {2}}}}} \ right) ^ {2} -c | \ набла I | ^ {2},}{\ displaystyle C = \ left ({\ frac {\ delta ^ {2} I} {\ delta {\ bf {{t} ^ {2}) }}}} \ right) ^ {2} - с | \ набла I | ^ {2},}

где t {\ displaystyle {\ bf {t}}}{\ displaystyle {\ bf {t}}} - единичный вектор, перпендикулярный градиенту, а c {\ displaystyle c}c определить степень фобии кромок у детектора. Авторы также отмечают, что для уменьшения шума требуется сглаживание (предлагается гауссово).

Сглаживание также вызывает смещение углов, поэтому используются его в поправке коэффициента к углам угла 90 градусов.

Угловой детектор SUSAN

SUSAN - это аббревиатура, обозначающая наименьшее ядро, ассимилирующее однозначный сегмент. Этот метод является предметом патента Великобритании 1994 года, который больше не действует.

Для обнаружения SUSAN помещает круг маску на пиксель, который нужно проверить (ядро). Область маски: M {\ displaystyle M}M , пиксель в этой маске представлен как m → ∈ M {\ displaystyle {\ vec {m}} \ in M}\ vec {m} \ in M ​​. Ядро находится в m → 0 {\ displaystyle {\ vec {m}} _ {0}}\ vec {m} _0 . Каждый пиксель сравнивается с ядром с помощью функций сравнения:

c (m →) = e - (I (m →) - I (m → 0) t) 6 {\ displaystyle c ({\ vec {m}}) = e ^ {- \ left ({\ frac {I ({\ vec {m}}) - I ({\ vec {m}} _ {0})} {t}} \ right) ^ {6}} }c (\ vec {m}) = e ^ {- \ слева (\ frac {I (\ vec { m}) - Я (\ vec {m} _0)} {t} \ right) ^ 6}

где t {\ displaystyle t}t - порог разницы яркости, I {\ displaystyle I}I - яркость пикселя и степень экспоненты была определена эмпирически. Эта функция имеет вид сглаженной функции в виде цилиндра или прямоугольной функции. Площадь SUSAN определяется следующим образом:

n (M) = ∑ m → ∈ M c (m →) {\ displaystyle n (M) = \ sum _ {{\ vec {m}} \ in M} c ({ \ vec {m}})}n (M) = \ sum _ {\ vec {m} \ in M} c (\ vec {m})

Если c {\ displaystyle c}c - прямоугольная функция, то n {\ displaystyle n}n - количество пикселей в маске, которые находятся в пределах t {\ displaystyle t}t ядра. Ответ оператора SUSAN определяется следующим образом:

R (M) = {g - n (M), если n (M) < g 0 otherwise, {\displaystyle R(M)={\begin{cases}g-n(M){\t_dv{if}}\ n(M)R (M) = \ begin {cases} g - n (M) \ t_dv {if} \ n (M) <g \\ 0 \ t_dv {в противном случае} \ end {case}

, где g {\ displaystyle g}g равно назвал " геометрический порог ". Другими словами, оператор SUSAN получает положительную оценку только в том случае, если область достаточно мала. Наименьший локальный SUSAN можно найти с помощью немаксимального подавления, и это полный оператор SUSAN.

Значение t {\ displaystyle t}t определяет, насколько похожими должны быть точки для ядра, прежде чем они будут считаться частью однозначного сегмента. Значение g {\ displaystyle g}g определяет минимальный размер однозначного сегмента. Если g {\ displaystyle g}g достаточно, тогда это становится велик детектором края.

Для определения угла используются два следующих шага. Во-первых, центроид SUSAN находится. В правом углу центра тяжести находится далеко от ядра. Второй шаг настаивает на том, чтобы все точки на линии от ядра находились через центроид до края маски находились в SUSAN.

Детектор углов Трайковича и Хедли

Подобно SUSAN, этот детектор непосредственно проверяет, является ли участок под пикселем самоподобным, исследуя соседние пиксели. c → {\ displaystyle {\ vec {c}}}\vec{c}- рассматриваемый пиксель, а p → ∈ P {\ displaystyle {\ vec {p}} \ in P}\ vec {p} \ in P - точка на окружности P {\ displaystyle P}P с центром вокруг c → {\ displaystyle {\ vec {c}}}\vec{c}. Точка p ′ → {\ displaystyle {\ vec {p '}}}\vec{p'}- это точка, противоположная p → {\ displaystyle {\ vec {p}}}{\ vec {p}} по диаметру.

Функция отклика определяется как:

r (c →) = min p → ∈ P ((I (p →) - I (c →)) 2 + (I (p ′ →) - я (с →)) 2) {\ displaystyle r ({\ vec {c}}) = \ min _ {{\ vec {p}} \ in P} \ quad ((I ({\ vec {p}}) - I ({\ vec {c}})) ^ {2} + (I ({\ vec {p '}}) - I ({\ vec {c}})) ^ {2})}{\displaystyle r({\vec {c}})=\min _{{\vec {p}}\in P}\quad ((I({\vec {p}})-I({\vec {c}}))^{2}+(I({\vec {p'}})-I({\vec {c}}))^{2})}

Это будет большим, если нет направления, в котором центральный пиксель похож на два соседних пикселя по диаметру. P {\ displaystyle P}P - это дискретный круг (круг Брезенхема ), поэтому интерполяция используется для промежуточных диаметров, чтобы дать более изотропный ответ. Любое вычисление дает верхнюю границу min {\ displaystyle \ min}\ min , сначала проверяется горизонтальное и вертикальное направления, чтобы увидеть, стоит ли продолжать полное вычисление c {\ displaystyle c}c .

Детекторы функций на основе AST

AST - это аббревиатура, обозначающий ускоренный сегментный тест. Этот тест представляет собой упрощенную версию критерия угла СЬЮЗАН. Вместо оценки круглого диска учитываются только пиксели в окружности Брезенхема с радиусом r {\ displaystyle r}r вокруг точки-кандидата. Если n {\ displaystyle n}n все дополнительные пиксели ярче ядра по крайней мере на t {\ displaystyle t}t или все темнее ядра на t { \ displaystyle t}t , то пиксель под ядром считается признаком. Сообщается, что этот тест дает очень стабильные функции. Выбор порядка, в котором проверяются пиксели, представляет собой так называемую задачу «Двадцать вопросов». Построение коротких решений для этой проблемы приводит к эффективным с точки зрения точки зрения доступным детекторам признаков.

Первым методом обнаружения обнаруживает БЫСТРЫЙ, основанным на AST (признаки из ускоренного теста сегмента ). r {\ displaystyle r}r в принципе может принимать любое значение, FAST использует только значение 3 (соответствует окружности 16 пикселей), и тесты показывают, что достигаются наилучшие результаты. где n {\ displaystyle n}n равно 9. Это значение n {\ displaystyle n}n является самым низким, при котором края не обнаруживаются. Порядок, в котором тестируются пиксели, определяется алгоритмом ID3 из обучающего изображений набора. Как ни странно, название детектора похоже на название статьи, описывающей детектор Трайковича и Хедли.

Автоматический синтезатор детекторов

Трухильо и Олагу представили метод, с помощью которого генетическое программирование используется для автоматического выбора операторов изображений, которые могут обнаруживать точки интереса. Наборы терминалов и функций содержат примитивные операции, которые являются общими для многих ранее предложенных искусственных конструкций. Пригодность измеряет стабильность каждого оператора с распределением равномерности и равномерному распределению точек по плоскости изображения. Работоспособность усовершенствованных операторов была подтверждена экспериментально с помощью обучающих и тестовых последовательностей прогрессивно преобразованных изображений. Следовательно, предложенный алгоритм считается конкурентоспособным для человека в задаче обнаружения точки путиса.

Детекторы пространственно-временных точек интереса

Оператор Харриса был расширен на пространство-время Лаптевым и Линдебергом. Пусть μ {\ displaystyle \ mu}\ mu обозначает пространственно-временную матрицу второго момента, определенную как

A = ∑ u ∑ v ∑ wh (u, v, w) [L x (u, v, w) 2 L x (u, v, w) L y (u, v, w) L x (u, v, w) L t (u, v, w) L x (u, v, w).) L y (u, v, w) L y (u, v, w) 2 L y (u, v, w) L t (u, v, w) L x (u, v, w) L t ( u, v, w) L y (u, v, w) L t (u, v, w) L t (u, v, w) 2] = [⟨L x 2⟩ ⟨L x L y⟩ ⟨L Икс LT⟩ ⟨L Икс LY⟩ ⟨LY 2⟩ ⟨LYLT⟩ ⟨LXLT⟩ ⟨LYLT⟩ ⟨LT 2⟩] {\ Displaystyle A = \ sum _ {u} \ sum _ {v} \ sum _ {w} h (u, v, w) {\ begin {bmatrix} L_ {x} (u, v, w) ^ {2} L_ {x} (u, v, w) L_ {y} (u, v, w) L_ {x} (u, v, w) L_ {t} (u, v, w) \\ L_ {x} (u, v, w) L_ {y} (u, v, w) L_ {y} (u, v, w) ^ {2} L_ {y} (u, v, w) L_ {t} (u, v, w) \\ L_ {x} (u, v, w) L_ {t} (u, v, w) L_ {y} (u, v, w) L_ {t} (u, v, w) L_ {t} (u, v, w) ^ {2} \\\ end {bmatrix}} = {\ begin {bmatrix} \ langle L_ {x} ^ {2} \ rangle \ langle L_ {x} L_ {y} \ rangle \ langle L_ {x} L_ {t } \ rangle \\\ langle L_ {x} L_ {y} \ rangle \ langle L_ {y} ^ {2} \ rangle \ langle L_ {y} L_ {t} \ rangle \ langle L _ {x} L_ {t} \ rangle \ langle L_ {y} L_ {t} \ rangle \ langle L_ {t} ^ {2} \ rangle \\\ end {bmatrix}}}{\ displaystyle A = \ sum _ {u} \ sum _ {v} \ sum _ {w} h (u, v, w) {\ begin {bmatrix} L_ {x} (u, v, w) ^ {2} L_ {x} (u, v, w) L_ {y} (u, v, w) L_ {x} (u, v, w) L_ {t} (u, v, w) \\ L_ {x} (u, v, w) L_ {y } (u, v, w) L_ {y} (u, v, w) ^ {2} L_ {y} (u, v, w) L_ {t} (u, v, w) \\ L_ {x } (u, v, w) L_ {t} (u, v, w) L_ {y} (u, v, w) L_ {t} (u, v, w) L_ {t} (u, v, ш) ^ {2} \\\ конец {bmatrix}} = {\ begin {bmatrix} \ langle L_ {x} ^ {2} \ rangle \ langle L_ {x} L_ {y} \ rangle \ langle L_ {x} L_ {t} \ rangle \\\ langle L_ {x} L_ {y} \ rangle \ langle L_ {y} ^ {2} \ rangle \ langle L_ {y} L_ {t} \ rangle \\\ langle L_ {x} L_ { t} \ rangle \ langle L_ {y} L_ {t} \ rangle \ langle L_ {t} ^ {2} \ rangle \\\ end {bmatrix}}}

Затем, для подходящего выбора k < 1 / 27 {\displaystyle k<1/27}{\ displaystyle k <1/27} пространственно-временные точки интереса обнаруживаются из пространственно-временных экстремумов пространственно-временной меры Харриса:

H = det ⁡ (μ) - κ trace 2 ⁡ (μ). {\ displaystyle H = \ operatorname {det} (\ mu) - \ kappa \, \ operatorname {trace} ^ {2} (\ mu).}{\ displaystyle H = \ operatorname {det} (\ mu) - \ kappa \, \ operatorname {trace} ^ {2} (\ mu).}

Определитель оператора Гессе расширен на совместное пространство- времени Виллемса и др. и Линдеберга, что приводит к следующему нормированному по масштабу дифференциальному выражению:

det ⁡ (H (x, y, t), norm L) = s 2 γ s τ γ τ ((L xx L yy L tt + 2 L ху L xt L yt - L xx L yt 2 - L yy L xt 2 - L tt L xy 2). {\ Displaystyle \ OperatorName {det} (H _ {(x, y, t), norm} L) = \, s ^ ​​{2 \ gamma _ {s}} \ tau ^ {\ gamma _ {\ tau}} \ left ((L_ {xx} L_ {yy} L_ {tt} + 2L_ {xy} L_ { xt} L_ {yt} -L_ {xx} L_ {yt} ^ {2} -L_ {yy} L_ {xt} ^ {2} -L_ {tt} L_ {xy} ^ {2} \ right).}{\ displaystyle \ operatorname {det} (H _ {(x, y, t), norm} L) = \, s ^ ​​{2 \ gamma _ {s} } \ tau ^ {\ gamma _ {\ tau}} \ left ((L_ {xx} L_ {yy} L_ {tt} + 2L_ {xy} L_ {xt} L_ {yt} -L_ {xx} L_ {yt } ^ {2} -L_ {yy} L_ {xt} ^ {2} -L_ {tt} L_ {xy} ^ {2} \ right).}

В работе Виллемса и др. Более простое выражение, соответствующее γ s = 1 {\ displaystyle \ gamma _ {s} = 1}{\ displaystyle \ gamma _ {s} = 1} и γ τ = Использовано 1 {\ displaystyle \ gamma _ {\ tau} = 1}{\ displaystyle \ gamma _ {\ tau} = 1} . В Lindeberg было показано, что γ s = 5/4 {\ displaystyle \ gamma _ {s} = 5/4}{\ displaystyle \ gamma _ {s} = 5/4} и γ τ = 5/4 {\ displaystyle \ gamma _ {\ tau} = 5/4}{\ displaystyle \ gamma _ {\ tau} = 5/4} подразумевает лучшее sca Свойства выбора в том смысле, что выбранные масштабные уровни получены из пространственно -временного гауссова блоба с пространственным размером s = s 0 {\ displaystyle s = s_ {0}}{\ displaystyle s = s_ {0}} и временным размером τ = τ 0 {\ displaystyle \ tau = \ tau _ {0}}{ \ displaystyle \ tau = \ tau _ {0}} будет идеально соответствовать пространственной протяженности и временной продолжительности, с масштабным отслеживанием пространственно-временного масштабного пространства экстремумы дифференциального выражения.

Оператор Лапласа был расширен Линдебергом на пространственно-временные видеоданные, что привело к следующим двум пространственно-временным операторам, которые также представили модели восприимчивых полей нейронов без задержки и нейронов в LGN:

∂ T, норма ( ∇ (Икс, Y), норма 2 L) знак равно s γ s τ γ τ / 2 (L xxt + L yyt), {\ displaystyle \ partial _ {t, norm} (\ nabla _ {(x, y), norm} ^ {2} L) = s ^ {\ gamma _ {s}} \ tau ^ {\ gamma _ {\ tau} / 2} (L_ {xxt} + L_ {yyt}),}{\ displaystyle \ partial _ {t, norm} (\ nabla _ {(x, y), norm} ^ {2} L) = s ^ {\ gamma _ {s}} \ tau ^ {\ gamma _ {\ tau} / 2} (L_ {xxt} + L_ {yyt}),}
∂ tt, norm (∇ (x, y), norm 2 L) = s γ s τ γ τ (L xxtt + L yytt). {\ displaystyle \ partial _ {tt, norm} (\ nabla _ {(x, y), norm} ^ {2} L) = s ^ {\ gamma _ {s}} \ tau ^ {\ gamma _ {\ tau}} (L_ {xxtt} + L_ {yytt}).}{\ displaystyle \ partial _ {tt, norm} (\ nabla _ {(x, y), norm} ^ {2} L) = s ^ {\ gamma _ {s}} \ tau ^ {\ gamma _ {\ tau} } (L_ {xxtt} + L_ {yytt}).}

Для первого оператора выбора масштаба требуется использование γ s = 1 {\ displaystyle \ gamma _ {s} = 1}{\ displaystyle \ gamma _ {s} = 1} и γ τ = 1/2 {\ displaystyle \ gamma _ {\ tau} = 1/2}{\ displaystyle \ gamma _ {\ tau} = 1/2} , если мы хотим, чтобы этот оператор принимал максимальное значение по пространственно-временным масштабам на уровне пространственно-временного масштаба, отражающую пространственную протяженность и временную продолжительность начинающегося гауссова блоба. Для второго оператора выбора масштаба требуется использование γ s = 1 {\ displaystyle \ gamma _ {s} = 1}{\ displaystyle \ gamma _ {s} = 1} и γ τ = 3/4 {\ displaystyle \ gamma _ { \ tau} = 3/4}{\ displaystyle \ gamma _ {\ tau} = 3/4} , если мы хотим, чтобы этот оператор принимал максимальное значение по пространственно-временным масштабам на уровне пространственно-временного масштаба, отражающего пространственную протяженность и временную продолжительность мигающая гауссова капля.

Цветовые расширения детекторов пространственно-временных точек интереса исследованы Эвертсом и др.

Библиография
Эталонные реализации

В этом разделе приведены внешние ссылки на справочные реализации некоторых детекторов, описанных выше. Эти эталонные реализации предоставлены авторами статьи, в которой детектор впервые описывается. Они могут содержать детали, не представленные или явные в документах, описывающих функции.

См. Также
Внешние ссылки
Последняя правка сделана 2021-05-15 12:44:56
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте