《中国图象图形学报》论文投稿模板.docx
中藻分突(此号在中国图书馆分类法中杳)力WMRe1.A文Moo6896(年I-修文引用格式I融合深度模型和传统模型的显著性检测(标题中不建议使用缩写词,居中排)作者I”,作者2(4号,各作者之间用逗号分隔,居中排)I.单上所在省市版箱,2.单位,所在褥市邮箱(6号一体.单位名解务必与金称.J:中M要,目的显杵性校测站图像和视觉久!域个收砒计题.传统极小时卜骁为性物体的边界保用较好,但是对必汇性目标的自信度不妙高,召回车岐,而深度学习模生对于是斤性物体的自信度跖,但是共结果边界粗IS,准痛率较低,针对这两种模型各自的优或点,提出了种H方性模里以煤介利用两种方法的优点并抑制各自的不足.方法田先改造域族的宓生卷积网络.训练了个Mj该网络的全卷税网络(FCN)显普性根本.同时选取个现有的基于是像总的显著性别归慑型,在得到两种模型的W杆性结果图后,提出一-种融合辑法,岫合两种方法的菇果以得到很终忧化结;K.PiJJdii1.U行性结果H"d"11i"M积和像发何是#性位的对非线性哄射,物FCN结!K5传统模里的结果相融合,的果实段在4个数期"上与最新的10种方法进行了比较.在HK1.MS数据集中.相比于性能第2的粳型.F(itf72.6%.在MSRA故据集中.桶比F性能第2的根小F值捉Mr2.2%,MAEWtt/5.6%!在DUTOMRoN数妪集中,相比于性能第2的模型,F值提高5.6%.MAEHfKT17.4,同时也HMSRA数据架中进行了对比实验以验证融合H法的有效性,对I匕实段结果证明提出(!,1.J-U'f!P><.r.A4.结论十大所提出的JHHteI型,例哈了传统校,!和深慢学习馍腐的优点,使星著性校的结果更加准确,(小5号宋伟,按输日的,方法,结果和一的I个佞。戒H,11晚轮文无按JRH*tU)*三1.:显方性投泅;邂Mi誉机网给;全卷枳网络;融合算法:HMfanM«1积(小5号宋体.各词之门用分号问.当(8到未朱诒文的改本w传搞.建议为犍记的公.从)、汲段、小一域.研充蚓>.I。绪攀、焦点检索词啸方面精选关位词)Sa1.iencydetectionviafusionofdeepmode1.andtraditiona1.mode1.(首词首字母大写,其他小写,居中排)作者-2,作者2(4号,各作者之间用逗号分隔,居中期h单位,所在省市邮编.期箝2、单位,所在省市邮址,国京(6号斜付,K'qoAh%tract:Objcc1.iveSx1.icncydetectioni<fund;IECnuI1.PrehICnIincomputervi%inn11n<!i11cprocessing,whichAims1.<>identifythemoMconspicuousobjectsOCregionsinunimage.SaJicncydetectionhasbeenwide1.yUSCdinsevera1.visua1.a1.icaiM>ns.inc1.udingObjZ1.rctafgctn.scenec1.asM<aiiovisua1.tracking,imgeretrieva1.,andscan<>cscgmenuion.Inmost(11d>1.iu1.UPPnKId1.eXSa1.ien1.(>bjec1.xavderivedIxxwd»miI1.ieextrudedtea1.urefmniP1.Rekorrvgiut.Fina1.%a1.iencymapsconsistofthc<eregionwiththeirMI1.iCfKyscore,ThePerfnnniInCCofthese11iekre1.yonthecgmcntitk>nmcthxis;indthese1.ectionoffeatures.TbcwnproadccannotPrOdUCCsaisfacto<>'resu1.tsWhEimageswithmu1.tip1.esa1.ientobjectsorIoWYomnistcoiMcnuarecounicrcd.Tradiixma1.ap<acbcsPrCSCrVCthebounduncswd1.butwithmsufYiccnconfidccof收稿日期::修国日裔:墓"I口:基金项目的赛瑟中文全称项目a号:“”;同。隔开)SUPPOrtaIby:黑如H目的英文全称1湮¥金项;I的中英文名称可在学报网M卜世中心今找核对sa1.ientobjects,whichyie1.d1.owreca1.1.rates.G>nx>1.utionncu11works(CNNs)havebeenintroducedinpixe1.-wiseprediction<b1.enH.suchassa!iencydcicciion.duetotheiroutstandingPC1.fUmUnNinimagec1.assificaiiontasks.CNNsredefine(beSaJiCnCyprob1.emasa1.abe1.ingpbkmWherVIheIcaiurvSeIeeIiOnbc(*<rnsa1.icinandno<sa1.icnObjCC1.Sisaxomaica1.1.yPernEnedt1.v<>ughgradie1.de¼cen1.ACNNcantMXbedirect1.yusedtoHumaKi1.ieneymode1.,axiaCNNcunbeU1.i1.izcx1.inii)icncydc1.ec1.>nbyextractingmihicpatchamundeachpixe1.andbyuingthepatchtoPnRiCtthecenterpixe1.'sCiaMPaichesarcfrequent1.yobtainedfromdifferentrcsoicnsoftheinputimugctocaptureg1.oba1.information.AnothermethodIstheadditionofup-samp1.ed1.ayc11*intheCNN.AmodifiedCNNisc1.1.cdafu1.1.yconneccdIKIWOfk(FCN).v*tichisfi11*proposedforenan(icenenU1.iu.Miw1.Xa1.iCnCyde1.tx*tx>nCNN11>dehueFVNtocapturecrtierab1.eg1.oba1.and1.oca1.InkKina1.iDi1.FCNisaPnPU1.arm<x!c1.thatfncx1.i11cvtheCNNtofitdensePfvdiCtionPrnWCe、whichrep1.aces(heSoHMaxandfi1.1.yCnnneCCCd1.ayc11iintheCNNintoconvo1.utionanddeconvo1.ution1.ayers.ComParcdwithtraditiona1.11thods.FCNscanaccurate1.y1.<mtcsa1.ientobjectsandyie1.dIhCirhighCOnGdencc.Houcwr.theboundariesofSahCIUobjectsarccoarseandtheirpfccis>nIU1.CSare1.owerthanIhCUudi1.iona1.UPP“融be、dueIoIheJuimmphiig!(u.'tuinK'N%.Todea1.vi1.hI1.iehmiU1.iaiis<Ihe2kix1.%of×3ecy11xxck.WCPmPOHCposite¼Iicncymode1.thatcombines(headv;InUigc%andrcstninthedrawbacksCfIWoMi1.icncynxx1.c1.s.MethodInIhKstudy,anewFCNbasedondenseCanvo1.uiiona1.ncw<H(DcnscNci)isbui1.t.ForSdiCnCydctecon.WDrep1.aceIheIu1.1.ycxxinec1.ed1.ayerandfina1.PUt)I1.ng1.ayern1.uaI×Ikerne1.sizecunvo!u1.i1.ayerau1.3(SeCs1.VDIUIiUn1.ayer.Ag11M>idIuyerisaPP1.1.CdIdub1.anUUrM1.ienCynq%.MtheIKIinmgPrOCeStIheSaIig1.Cyt1.workb(aifuasquaredEuc1.i<kankws1.ayerfbxa1.iencyregrcMm.Wcnc-tunctheprc1.11i11e!11cnvNet-1.1.u>t11inourMier>*mode1.Ourtrainingsetconsistsof3900imagesthatUrcrandom1.yse1.ectedfrom5sa1.ic>,pub1.icdataset,name1.y.ECSSD.SOD.HKU-IS.MSRA.andICOSEG.Oursa1.icncyworkisimp1.ementedinCaffctoo1.box.Theinputimagesandund-(thmapsarcresized105OOr5OOforItuining.thenu>nen1.umxruw1.erisMrtto0.99.IbeIeannngru1.eisietIo10",0.ax1.theweightdecayx¼O.(MX>5.1"heSGDIBninjJPfnCed1.IrCiXeCICnUCdKinIIaNVIDIAGTXTTTANXGPudevice,hihtakesapproximate1.yonedayin2(X>(KM)ic11nions.Then,weuseaImdi1.iona1.sa1.icncymx1.c1.TbcSdZcdmode1.adop<smu1.ti-1.eve1.wgnnta<iontopr<x1.uccsevera1.SCgmenuiiiosofanimage,whereeachhueixc1.isrv<sencdbyafeatureVeC1.(M1.hd1.containsdifferentkindsofimagefeatures.AIundoInfores!istrainedbyIhusefeaturevector%Idfeive¼hecymap%.OnIhebasisft1.x;2nuk1.s.½pop0ieafu%inAp11ithmthatcombinesthead、FnofInuh1.inna1.APProaChGanddeepkamingme<b<x1.%.Forani11wgc.15segmenta1.><>nxoftheimngcareproduced,andthesa1.icncymapsofu1.1.segmentationsarcderivedbythe11ndomforw(.Then,weIKCFCNcoPfVdUCCanothertypeofsa1.icncynwoftheimage.Thefusiona1.pofithmapp1.iestheHadamaidP(OdUC1.onthe2typesofsa1.tccy11wpax1.thein<u1.titi<mtvsu1.1.&UbUI1.nedbyawragingtheHudaniaxx1.r×1.uctresu1.tsThen,anudap1.ive1.hrvM>1.disUMX1.Iofusetheinitia1.fusionandFCNreshsbyusingapixe1.4opixc1.ITMPtoobtainthe11na1.fisionBU1.1.Resu1.tWCcomparedourmode1.with10Matcofhc-a11sa1.cymode1.s,i1.udtngtheIradiiioiu1.approachesImddeep1.earningInC1.hOd9on4pub1.icda(axe1.uu1.y.D1.T-OMRON.ECSSD.I1.KUIS.ax!MSRA.Thequa1.i(a1.iveea1.ua(M11>e1.ncsCDnUiIkXif'11eaxure.!Kasquareerror(MB).ax1.PRcurves,antiWCprovided%eve111.QIiCnCymapofCaChmdb<xifvco<njriM.Theexperimentresu1.tsshewthat<nrmode1.OU1.pCrformsa1.1.o<hcrmethodsinHKU-IS.MSRA.andD1.11,-OMRONdatasets.Thesa1.icncymapsshovvdha(OUrnMxk1.canPrOdUCCrefinedrvsu1.ts.1.cCoInPafCd(hePerfOnnanCCofrandomforcM.FCN.andfi1.ia1.fusionresu1.tsinverifythec1.1ec(ivenes¼of<>ur1.'u%i<M!a!grithn.Cnpafu(iveeperi11n(sdenxiMn1.edIha1.diefusiona1.g<vi1.1.nnirnn>esa1.icncydetection.Comparedwiththe11mdnmfnrcMresu1.tsinECSSD.HKU-IS.MSRA.iix1.DuTOMR()N,the-fnciNurc<higherisbetter)ircuscdby6.2%,I5.6%5.7%,and16.6%andMAE(i.c.1.essisbetter)decreasedby17.4%,439%,33.3%,and24.5%v¼xtivc1.y.CO1.nPafCdwiththeFCNresu1.tsinECSSD.HKU-IS.MSRA.andDuTgMRON.theF-measureIrW1.VaMrdby2.2%,4.1%.5.7%.ad113%.rvspec1.ivc1.y.MdMAEdecs;IMfdby().6%,10.7%.and1S.4%inECSSD.MSRA.atx1.DUT-OMR0N.rcspcctivc1.y.InKddition.weconductedaseriesofCompanitiveexperimentsinMSRtoc1.ear1.yshowtheeffectivenessofdiffcremstepsofthefusiona1.gorithm.Conc1.usionInthisMiJy.WCproposedaCanIPaSitCsa1.icncymode1.IhMcontainsanFCNanda<mdnou1.Inodeiandafuwona1.gorithmtofuse2kindsofsa1.icncymaps.TcCXPerimCfH心UItSshowthatcrMxie1.UiXpeifuiniHsevcu1.sta1.e<>f<beartSa1.ieneyAPP1.1.XKrbeSax1.thefusiona1.gori1.hnimprovesdiePeIG1.rmanx.按缭ObjZ,小CMethod.Kct1.t,C<mdus1.<m4个变。婚,;.4、W正在生做申请E;国防致据匕松芸,为捉扁丈幸生影响力,佞播力.英文摘要:字数妄求为1。00词左右.不而'中文插要完全对应)KeyMordstta1.ey<Seecx>n;den>eCwork;fu1.1.yccm¼VFutMa1.ne1.w(>k:1.'mxMa1.gri1.h11:Hadanutdproduct(各关健词之间以分号间隔.缩写词须仃全称.11.谛注0:与中文关憾词完全对照)论文正文双栏排(单栏宽度:22个字符)O引言(序号为0,四号加粗)1类似一个小综述,应包括国际、国内坦新研究进展,现存问卷、方法局限或研究空白等,以此提出论文的切入点等.2)每条引文应列出精准的参考文献,避免出现一处笼统标注多个文献的情况。文献引用方式讲采用(作者,出版年)的形式,样例如:”能量和碳的循环(JUng等.2010)”.3)条理清晰,避免大量文献的无序堆砌.对国内外开展的相关工作进行系统梳理和分析(无需在引言中介绍文章的结构,正文5号宋体)杂度很高(Cok等.2O12.”或“目前,3维点云数堀已经在测绘工程(Sieben和Teizer.2014)领域发挥了十分重要的作用”或“在图像,视城分类(HC等.2019:Peng等.2019),检索(李军等,2017)和语义分割(Chcn等,2016)等任务上,注;力机制都发挥了重要的作用。”h卷恪:飞H.纹衣,表题嬖求中英文对照,居中排在第上,小五号宋体加黑:我内文字采用六号宋体:表注用小兀号宋体,全文的表格序号从1通增编排,样例如:表卜”。1 一级标题:四号加粗)1.1 =MM5号加粗)1.1.1 三级标题(5号)1变破:殳M用角f能矩阵,矢量,向;七揉合,牧娟,图像用,体加密R实物集)2祭数集).N(自然数集)用正体加粗1各变fit要求加以说明,标准函数用正体样例如:首先,用R'来表示N维空间。用Xn,,X”M来表示N维空间RY的N个维。把从N堆空间坐标转换成的1维空间坐标值叫做Hi1.bcrt码记为:Hcodc本文约定若一条HiIbCrI曲或可以城充,个2n'×2n'×.×2"(2T)的“维空间,W1.称该Hi1.ben曲线为一个N维m代Hi1.ben曲戏,用HNm表示.2)公式:全文统一从1递增端序号,样例样例如:式(I),所有公式及变房建议使用MathTyPe编辑器编卷,I可时,公式后衢对年一个首次出现的变量加以说明。样例如:通过矩阵外枳将年一个位火点的特征输出汇聚,也就是在/区域,、和的双线性特征的融合=Ie1.ie1.(5)武中,和Jn必须具有相同的特征维度K,K的伯取决于具体的模型.3文献引用方式请来用作者,出版年)的形式,样例如:wFish等人(2(X)9给册了一个迭代的表驱动版本使得1雉到2维的映射得以执行."或“表羯动的一个呆大的缺点就是它的空间笈表6不冏算法都制那的!声龄果的笈分魄Iiib1.c6Purti1.Mincot11icien1.Ordierenta<rithntMpprc%mixednoix<?你燥法I原以2原弘3本文原法%061730.33300.51820.7SI2一不则图/05130.66051).7006(1皿§%055690.75690.6105U1!9tfU*ff1.%035710.77020.713I(S2注I加粗字体为蜉行於忧值.5)图:使用色彩分明,300ipi以上的高质-影像或清晰的矢量图。图题中英文对照,小万.号宋体,子图题为六号宋体.图注用六号宋体.子图也居中排在图下.图号按全文统一编号,图中各小图用英文字母(八),(b),.编号.图全文统一编序号,样例如:图1.(八)%m(b>fiS图图3深度图以及深度放腾图Hg.3Dvp1.iimapandIkPthsem1.ive11up«4HkpIhmapIIb)IkPthMrntive11up>4结论i)结论是全文用重要的部分,总结本文开展的主要工作.意义何在回答引言提出的何跑.2)应合理安排论文结构和内容,避免虎头蛇尾.针对开展的主要工作、成果及发现进行逐条梳理、分析和阐述,概括本文研究工作的特点、方法、结果.3)结论中对于研究工作的介绍应避免与界要、引言、实脸结果的文字部分监熨,4)研究工作的不足之处及产生原因,时于实脸过程和结果中的问题分析,讨论今后研究方向和下一步工作设想,尽量避免主观性的描述.特别类1)投稿时,如能提供并上传重要的实验数据、可验证的程序代码等附件,将有助于论文的审稿和未来发表后的关注和引用。2)作者可以通过狭谢对未自接参与论文抿写和研究工作.但对论文提出重要指导意见、研究数据、仪器设备、实验条件等的机构和人员表达感谢,样例如:K谢比次仔外尖能的我提萩取落到Y案大利亚科学均工业研比坦汉大I均得洋研究所在比表示来.十的感谢!(桥体.小五号).轩.李海浜.zoo”MqMHUX域't象安术的中回插值.»a学报.57(I>:47-56)D(HIO.332Uj.i»n:O375-5444.2001AI×)06)(41.义标注方火IMcanFandBruzzone1.2XMCIaMificaikoiohypcrcCtra1.remoteSC1.Kir>gimage,with>uppo11vectornu>chinct.IEEETraiiMKtiotiK<GCa,CFMyandRemoieSensig.42(8):11a-i79(ooi:io.u(wtgrs.2<m>U3i««M英.当会标;方式)作者简介第一作者姓名,1900年生,性别,职氟研究方向为.E-mai1.:通信作者姓名.通信作者,性别,职称,主要研究方向为.E-mai1.:其他作者:姓名.性别.职称,主要研究,印必Emai1.:(按作者顺序列出)Xt(ferences)(5号宋体加旭)全部文献按英文字母顺序排序,中文文献儒提供对熙秘译成英文,参考文献格式见本刊网站(N)下栽中心。文献各项要素耳全,作者为姓前名后,需列出所有作者.英文文献最后一个作者前面使用and进行连接,其余作者用退号隔开,中文文献作者全部用逗号隔开.样例如:FURG1.iBandGaoYH.2016.Cootciu*baedimageretrieva1.bcx1.oCNNandSVM,,'PnX«din即ofhc2ndIEEEImcnia1.icxta1.Conference<ComputerandCommunications.ChCrtjdu:IEEE:«31,42IDOI:I(M1.O9;COmPCQmn2D16.7924779公议文处0;1。代:HifUuiiGEwSrixuMavaNMXIKrizIievUt)A,2(XM.hMkingMUf”1mvkbypresentingc>udpu!kn<feature&Ux1.<MEB1.2389522EgJPdr12OZ<>58OPdr电子文献标注方式1.inZH.MXG1.iHXmx11.iHB.2002.C<mprnofIhrvcSpiiiia1.ntcfpoik)11methodforc1.imatevariab1.esinChtiuAcuGrognipbicjSin>ca,57<I):47564HMH.真兴国.李宏