Preview

Информатика

Расширенный поиск

Интерактивная сегментация изображений на основе их кластеризации

https://doi.org/10.37661/1816-0301-2024-21-2-86-93

Аннотация

Цели. Рассматривается задача сегментации цветных изображений без использования предварительного обучения. Она возникает, например, когда необходимо выполнить сегментацию изображений с неизвестными заранее семантическими и цветовыми свойствами непосредственно после их получения или когда набор изображений, предназначенных для сегментации, слишком мал, а также при выполнении предварительного «разведочного» анализа изображений. В таких случаях невозможно использование мощных нейросетевых и других средств сегментации, требующих глубокого обучения.
Методы. Предлагается алгоритм интерактивной сегментации изображений, основанный на анализе цветов областей, выделенных в интерактивном режиме. Вначале в интерактивном режиме выделяются весьма приближенно области изображения, принадлежащие объектам, а затем – принадлежащие фону. На следующем шаге множество цветов выделенных областей объектов и множество цветов выделенных областей фона кластеризуются по отдельности одним из алгоритмов кластеризации, например k-сред- них, нечетких c-средних, или предложенным автором алгоритмом многоуровневой кластеризации. После этого из множества центров кластеров, описывающих объект, и множества кластеров, описывающих фон, удаляются неинформативные элементы. Преобразованные множества центров кластеров объектов и  фона используются для сегментации изображения.
Результаты. Построенный алгоритм позволяет выделить на цветном изображении требуемые объекты в случае, когда их цвет отличается от цвета фона. Интерактивное выделение областей объектов и областей фона не требует аккуратности и больших усилий и обычно занимает от нескольких десятков секунд до минуты. Для выделения достаточно использовать прямоугольные области, лежащие целиком внутри изображений объектов, и прямоугольные области, лежащие целиком внутри фона. Приводятся пример интерактивного выделения областей и результаты сегментирования цветных изображений.
Заключение. Проведенные эксперименты показали эффективность предложенного подхода сегментирования цветных изображений. Его можно применять в случаях, когда заранее неизвестны семантические и цветовые свойства изображений, и в случаях, когда использование более мощных методов глубокого обучения, включая нейронные сети, слишком затратно или невозможно.

Об авторе

Б. А. Залесский
http://uiip.bas-net.by/
Объединенный институт проблем информатики Национальной академии наук Беларуси
Беларусь

Залесский Борис Андреевич, доктор физико-математических наук

ул. Сурганова, 6, Минск, 220012



Список литературы

1. Гонсалес, Р. Цифровая обработка изображений : пер. с англ. / Р. Гонсалес, Р. Вудс. – М. : Техносфера, 2005. – 1075 с.

2. Шапиро, Л. Компьютерное зрение : пер. с англ. / Л. Шапиро, Дж. Стокман. – М. : Бином, 2006. – 752 с.

3. Селянкин, В. В. Компьютерное зрение. Анализ и обработка изображений / В. В. Селянкин. – СПб. : Лань, 2019. – 152 с.

4. Snyder, W. E. Fundamentals of Computer Vision / W. E. Snyder, H. Qi. – Cambridge : Cambridge University Press, 2017. – 386 р.

5. Bezdek, J. C. Pattern Recognition with Fuzzy Objective Function Algorithms / J. C. Bezdek. – N. Y. : Springer New York, 1981. – 272 p.

6. Залесский, Б. А. Алгоритм отслеживания объектов движущейся видеокамерой / Б. А. Залесский // Докл. Нац. акад. наук Беларуси. – 2020. – Т. 64, № 2. – С. 144–149.

7. Залесский, Б. А. Многоуровневый алгоритм цветовой кластеризации изображений / Б. А. Залесский // Докл. Нац. акад. наук Беларуси. – 2021. – Т. 65, № 3. – С. 209–274.


Рецензия

Для цитирования:


Залесский Б.А. Интерактивная сегментация изображений на основе их кластеризации. Информатика. 2024;21(2):86-93. https://doi.org/10.37661/1816-0301-2024-21-2-86-93

For citation:


Zalesky B.A. Clustering-based interactive image segmentation. Informatics. 2024;21(2):86-93. (In Russ.) https://doi.org/10.37661/1816-0301-2024-21-2-86-93

Просмотров: 26


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 1816-0301 (Print)
ISSN 2617-6963 (Online)