国产欧美精品一区二区,中文字幕专区在线亚洲,国产精品美女网站在线观看,艾秋果冻传媒2021精品,在线免费一区二区,久久久久久青草大香综合精品,日韩美aaa特级毛片,欧美成人精品午夜免费影视

基于背景原型對比度的顯著(zhù)性物體檢測
CSTR:
作者:
作者單位:

(1.湖北大學(xué) 計算機與信息工程學(xué)院, 武漢 430062;2.烽火通信科技股份有限公司,武漢 430073)

作者簡(jiǎn)介:

羅辰輝(1991),男,湖北黃岡人,研究生,主要從事圖像處理、物聯(lián)網(wǎng)、無(wú)線(xiàn)通信方向的研究。 通訊作者:張 偉(1979),男,湖北武漢人,博士,講師,碩士研究生導師,主要從事圖像處理、無(wú)線(xiàn)通信方向的研究。 [FQ)]

通訊作者:

中圖分類(lèi)號:

基金項目:

國家自然科學(xué)基金(61301144,5)。


Saliency Detection via Background Prototypes Contrast
Author:
Affiliation:

(1.School of Computer Science and Information Engineering, Hubei University, Wuhan 430062, China;2.Service and CPE Business Unit, Fiberhome Telecommunication Technologies Co.Ltd., Wuhan 430073, China)

Fund Project:

  • 摘要
  • |
  • 圖/表
  • |
  • 訪(fǎng)問(wèn)統計
  • |
  • 參考文獻
  • |
  • 相似文獻
  • |
  • 引證文獻
  • |
  • 資源附件
  • |
  • 文章評論
    摘要:

    針對傳統顯著(zhù)性模型在自然圖像的顯著(zhù)性物體檢測中存在的缺陷,提出了一種利用背景原型(background prototypes)進(jìn)行對比的視覺(jué)關(guān)注模型,以實(shí)現顯著(zhù)性物體的檢測與提取;傳統顯著(zhù)性模型主要通過(guò)計算區域中心與四周區域差異性實(shí)現顯著(zhù)性檢測,而自然場(chǎng)景中顯著(zhù)性區域和背景區域往往都存在較大差異,導致在復雜圖像中難以獲得理想檢測效果;基于背景原型對比度的顯著(zhù)性物體檢測方法在圖像分割生成的超像素圖基礎上,選擇距離圖像中心較遠的圖像區域作為背景原型區域,通過(guò)計算圖像中任意區域與這些背景原型區域的顏色對比度準確檢測和提取圖像中的顯著(zhù)性物體;實(shí)驗結果表明,基于背景原型對比度的顯著(zhù)性模型可以更好地濾除雜亂背景,產(chǎn)生更穩定、準確的顯著(zhù)圖,在準確率、召回率和F-measure等關(guān)鍵性能和直觀(guān)視覺(jué)效果上均優(yōu)于目前最先進(jìn)的顯著(zhù)性模型,計算復雜度低,利于應用推廣。

    Abstract:

    To overcome the disadvantages of existing saliency models in saliency detection, a novel object-based attention model is presented to predict visual saliency using the contrast against the background prototypes. Traditional saliency models mainly detect salient regions by comparing the differences between center and surround regions, which makes hard to get desired results in complex scenes for significant differences often appear both in salient and background regions in real images. Saliency detection via background prototypes contrast firstly over-segment the input image into perceptually homogeneous superpixels, and automatically identifies a series of regions far away from image center as background prototypes. The visual saliency is then accurately calculated using the color contrast with respect to the selected background prototypes. Promising experimental results demonstrate that the proposed model, which outperforms the compared state-of-the-art saliency models in average precision, recall, F-measure and visual effect, can better exclude the cluttered backgrounds, and thus produces more robust and accurate saliency maps. Moreover, due to its computational efficiency, our model is easy to be widely applied.

    參考文獻
    相似文獻
    引證文獻
引用本文

羅辰輝,張偉,沈瓊霞,葉波.基于背景原型對比度的顯著(zhù)性物體檢測計算機測量與控制[J].,2017,25(10):259-262.

復制
分享
文章指標
  • 點(diǎn)擊次數:
  • 下載次數:
  • HTML閱讀次數:
  • 引用次數:
歷史
  • 收稿日期:2017-06-19
  • 最后修改日期:2017-07-07
  • 錄用日期:
  • 在線(xiàn)發(fā)布日期: 2017-11-09
  • 出版日期:
文章二維碼
达日县| 延庆县| 游戏| 正蓝旗| 郓城县| 阿克陶县| 互助| 南康市| 宝丰县| 焦作市| 仙居县| 马鞍山市| 凤城市| 军事| 措美县| 延安市| 乳山市| 枣强县| 崇文区| 石城县| 潜江市| 水富县| 昌乐县| 浮山县| 宿迁市| 茶陵县| 莲花县| 台江县| 乌鲁木齐市| 阿巴嘎旗| 化州市| 曲阳县| 准格尔旗| 唐河县| 乌审旗| 通山县| 玉林市| 宁津县| 河北区| 蕉岭县| 贺兰县|