Компјутер кој ги „чита“ уметничките слики како човечко око

Замислете компјутер кој може да ги перципира уметничките слики како човечкото око.

Бо Ли од Универзитетот „Умеа“ во Шведска демонстрира еден сосема нов концепт во полето на компјутерската перцепција, преку кој ги претставува линиите и уметничките форми и препознавањето на објектите со помош на компјутер.

Човечкото око и неговата перцепција може да препознае одредени објекти преку карактеристиките на сликата, како што се формите и линиите.

На пример, ние можеме да идентификуваме човечки лик, животно, автомобил или други секојдневни објекти преку едноставни насликани скици. За компјутерот како технолошки уред ова е тешка задача.

Во својата докторска дисертација на Одделот за апликативна физика и електроника на Универзитетот „Умеа“, Бо Ли разви генијален концепт во компјутерската перцепција. Тој го нарекува ова: ангажирани линии.

Со овој метод компјутерот ќе може да прецрта слика користејќи ги линиите кои ги остава четката и да ги препознае објектите преку овие линиивели Ли

Концептот носи и една целосно нова димензија во разбирањето на карактеристиките на сликата, вклучувајќи ги региите, линиите, точките и сл. Овој концепт, исто така, овозможува овие карактеристики да бидат презентирани во истата теоретска рамка.

Според Бо Ли, најважниот елемент во изолирањето на карактеристиките е енергијата или нивната робустност. Неговите резултати помкажуваат дека овој метод овозможува линиите и кривините на сликата да бидат перципирани робусно, силно, преку разни трансформации на сликата.

Човекот ги користи овие карактеристики на сликата за да го опише светотобјаснува Ли

Иако во минатото, кривините и линиите не биле популарни во полето на компјутерските науки поради недостатокот на нивната експесивна моќ, теоријата на Ли и неговите алгоритми ќе го променат ова.

Извор: www.sciencedaily.com.

Одбележен под
Share this article

СЛЕДЕТЕ НЕ

Регистрирај се

За да ги добиваш новите содржини внеси ја твојата е-маил адреса
Top
We use cookies to improve our website. By continuing to use this website, you are giving consent to cookies being used. More details…