×
下次自动登录 忘记密码?
您好,欢迎光临武汉大千信息技术有限公司官方网站!
大千视界——最专业的视频侦查装备与解决方案提供商
武汉大千信息技术有限公司是由公安信息化行业知名专家、国内顶尖投资人、经理人共同创立的高科技企业,具有深厚的视频分析技术积累和侦查装备研制经验。

3

顶尖的实战单位、国家级研究机构、专业装备研制商三家联合

83

开发团队83%拥有安防、视频方向博士硕士学位

37

产品内含37项国家专利,核心技术遥遥领先

0

视频采集、视频转码、视频检索零等待,视频检索零漏检
  • 这不是一个只看【脸】的世界

    前几天小千看了一则新闻《男子偷遍武汉地铁:不偷实在对不起我的手艺》看到标题时我深感此人的敬业程度要是换个职业估计已经走上人生巅峰了文中写到:8月16日,武汉轨道警方轻轨派出所到余姓女子报警:在崇仁路站被盗窃手机一部。接警后,轻轨派出所全体人员兵分三路,通过巡逻走访和视频追踪,发现该男子身体略有残疾,体态特征较为明显。进一步摸排,便锁定了其身份信息:系住在硚口的惯犯李某,曾因扒窃被武汉警方多次打击处理过,刚刑满释放不久。其实李某已经56岁本该颐养天年的年纪却还是不甘寂寞,重拾旧业本以为自己的祖传手艺可以做到毫无破绽却还是逃不过监控探头的画面监控中是一个背影看不见人脸茫茫人海警察蜀黍是怎么找到这个人的呢?这个生活中的实际案例提醒了我们在视频侦查的过程中往往很多时候不能只看“脸”目前的人脸的细节特征可以做到精确识别,支持识别的信息可实现人脸的性别、年龄、肤色等基本信息,甚至戴墨镜等伪装都可以识别出来。但是在实际的视频侦查过程中,因为受视频布控局限性的影响,无法全面的捕捉到嫌疑人整体活动轨迹,继而开展嫌疑目标轨迹追踪的。故多维度嫌疑目标轨迹锁定的出现弥补了人脸识别的不足。系统在进行实时布控时,可进行人脸抓拍和多维度嫌疑目标轨迹锁定同步解析,将人脸信息和语义结构化信息进行关联。多维度嫌疑目标轨迹锁定为人像识别补充了识别信息的深度和全面性,人像识别比对为多维度嫌疑目标轨迹锁定带来了精确身份信息的相关性。通过多维度嫌疑目标轨迹锁定,能够过对行人的各个部件进行检测、分割、识别,对每个部件进行特征描述,从而可以从整体上对行人进行比传统算法模块更加精细的结构化信息描述。利用体貌体征关联信息为基础,通过基于交互的智能搜索技术在视频画面中找到目标相关的独立人像、体态特征,从而达到“以点带面”的效果,丰富对目标的描述,挖掘出目标完整的时空脉络信息,连你的同伙都不会放过哦~这就是所谓的360°的无死角“天网”呀!多维度嫌疑目标轨迹锁定应用可以在城市许多地方进行部署火车站地铁站飞机场海关出入口等等所以小千也在这里奉劝大家要做一个合格的社会主义接班人哦~

  • 技术分享 | 人脸超分辨率

    人脸超分辨率实战技术分享简介在案件视频侦查的过程中,如果能够从视频文件中提取到一张具有辨认价值的人脸图片,对于案情的推进将起到决定性的作用;但在实际工作中,由于光照、天气的影响,再加之监控探头自身像素、焦内区域的限制,在视频中直接得到一个清晰的人脸快照,几乎是“不可能的任务”。下图是发生在中部某城市的一个实际案例,在监控录像中我们发现:嫌疑人使用非常专业的手法,在数分钟内就成功窃取了一辆机动车,并且案发当地公安机关在一个月内接到数起类似报案,基本可以确定是同一伙人作案,这一系列案件在当地引起了不小的社会关注。在这一系列案件中,嫌疑人具有较强的反侦察意识,每次都选择离监控探头较远的车辆实施犯罪,在视频中我们很难看清嫌疑人的长相,给侦查带来了很大困难。在这类案件中,传统的图像处理方法无法对画面产生实质性改善,而如何在低像素图像中通过科学预测的方法绘制出高像素人脸图像,一直是学界的前沿研究方向。技术路线传统的图像处理技术,无论有多少种算法,其核心都是在已有的信息(像素点)上进行数学变换,不同的算法仅仅是变换方式不同,当实际画面信息不足(像素点不够)时,传统的方法做不到“无中生有”;人脸超分辨率重建技术核心是利用图像成份分析将输入的低分辨率人脸图像投影到低分辨率训练样本所张成的特征子空间中,基于高低分辨率流形一致性的假设,直接把投影系数映射到高分辨率图像上,加权得到高分辨率图像。简单来说,就是利用计算机存储的庞大人脸库,对低分辨率目标人脸进行科学预测,通过高分辨率人脸素材进行融合重建,做成“计算机版的人脸画像”。技术难点:人脸样本库扩充表达能力实际中无论高分辨率人脸库规模有多大,相较于全国乃至全世界数十亿实际人脸来说,都仅仅是一个小样本库,有限样本点只能构成高维人脸流形空间的一个稀疏空间,如何用一个稀疏空间解决全空间的问题,是目前学界的研究难点之一。在我们的方法中,通过算法的优化,在小样本库中仍然可以获得很好的性能;与前沿流形学习人脸超分辨率算法相比,在CAS-PEAL-R1大规模中国人脸数据库上的PSNR提升1个dB以上,SSIM值提升0.080左右。技术难点:图像块噪声鲁棒表示能力大案、要案多发夜间,嫌疑目标人脸图像受噪声干扰严重。现有人脸图像块表示方法受强噪声干扰严重,导致图像块的表示不稳定。在突破第一个技术难点时,我们解决了小样本库表示全样本的问题,但同时我们知道,纯学术研究中并未考虑到实际环境中噪声对样本稀疏表示的干扰,所以我们第二步要解决的就是克服实际视频中噪声带来的干扰。在我们的算法中,我们通过引入基于视觉先验知识的图像块鲁棒表示模型,通过建模的方式进行基于人脸图像位置块的高分辨率人脸预测合成,最终我们的算法在重建效果上较国内外同类算法有了很大 提升。上图是一张星光摄像机拍摄的低照度、低分辨率人脸,使用国内同类算法和我们的算法进行增强后,增强效果对比十分明显国内外同类算法我们的算法总结在解决了小样本库预测问题和低分辨率样本偏移问题之后,我们的“计算机人脸画像”取得了实质性突破,并基于此研制专业的人脸重建产品,并在实际工作中发挥了较好的效果,通过各地的试用,在一系列案件中都发挥了良好的效果,下图是在几个实际案件中的处理效果前文中所提到的实际案例,通过我们的人脸重建产品,侦查员通过鼠标几次点击,在几分钟之内就绘制出了一个具有较强参考价值的清晰人脸图像,此案依靠这张图像取得了突破性进展,并最终告破。

  • 技术分享 | 阿法狗接管平安城市究竟是怎样一种体验?

    人脸篇围棋“人机世纪大战”终于落下帷幕,叱咤棋坛十余载的宇宙国李世石选手最终以1:4不敌灯塔国阿法狗选手,这个结果可以说是让所有人大跌眼镜,人类的希望宇宙的良心李世石选手也经历了人生的大起大落,下面小千就带着大家一起回顾一下李世石选手的心路历程:请输入标题round 1PKround 2PKround 3〈终于赢回了一局〉PKFinal roundPK等等······小千好像发现了什么不得了的东西……阿法狗选手全程表情没有任何变化!难道这就是吴清源老师说过的跳出围棋之外才能真正不败么!!这就是超越石佛的存在——无敌的石狗么!!!小千了解到,在此次比赛之前,世界上有固定规则的两万多种游戏中,人类唯一占优的就是围棋。而此次阿法狗大显神通,成功攻破了“人类最后一个数学堡垒”。小千曾经以为人工智能是这样或者这样怎么一夜之间变成了这样?这样?甚至这样?························本着打破砂锅问到底的精神,小千经过一番搜索和学习,终于找到了近几年人工智能突飞猛进的根本原因——卷积神经网络的应用。在没有神经网络前,我们的人工智能是这样的:用了神经网络之后,我们的人工智能变成了这样在应用神经网络之前,人工智能所有的逻辑、计算和分支结果都必须是人工预设好的,这种人工智能是不具备学习能力的。而神经网络(深度学习)是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。深度学习的概念源于人工神经网络的研究,其通过组合底层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示,简单来说,应用了神经网络即深度学习算法之后,人工智能第一次具备了自我成长的可能性。深度学习的显著优势是人类再也不用设计算法中每一个逻辑关系,深度学习提出了一种让计算机自动学习出模式特征的方法,并将特征学习融入到了建立模型的过程中,从而减少了人为设计特征造成的不完备性。从前以深度学习为核心的某些机器学习应用,在满足特定条件的应用场景下,已经达到了超越现有算法的识别或分类性能,阿法狗正是凭借这样的能力才做到了几年前还是天方夜谭的事情。但是神经网络的应用也有显著的缺点:它虽然能够自动的学习模式的特征,并可以达到很好的识别精度,但这种算法工作的前提是,使用者能够提供“相当大”量级的数据。也就是说在只能提供有限数据量的应用场景下,深度学习算法便不能够对数据的规律进行无偏差的估计了,因此在识别效果上可能不如一些已有的简单算法。信息量有点大……让小千来给大家总结一下:神经网络让我们第一次拥有了可自主学习自主成长的人工智能,可以为我们处理很复杂的模式识别和特征提取的问题,但缺点是必须基于海量数据才能有很好的性能。嗯?特征提取+模式识别+海量数据?这不正是平安城市应用最典型的特征么!作为一个负责文宣的小白,小千感觉自己窥到了天机!今年公司的金点子大奖是我的啦!小千此时的心情是这样的:当我正high时,突然背后传来了程序员大哥弱弱的声音:神经网络啊,我们早就在用了啊,你说阿法狗啊,我们的产品和那个是一个思路啊。What!!随后我们的程序员大哥说给我举几个栗子,然后我就受到了成吨的伤害!恶意卖萌的研发总监敢说效果不好就弄屎你的墨镜产品经理本官侧脸也来试试的总经理挡住眼睛也可以哟~看完这个小千整个人都不好了还我奖金ㄒoㄒ用了这个感觉是想找神马就找神马的节奏啊,以后躲在楼道煲电话粥会不会被公司监控抓住上黑名单啊!!“等等!”“嗯?”“这个也可以做车辆识别吧!这个你们总没做吧!”(奖金回来了)“哦,也有啊。”“……”“……”且听下回分解。

  • 透过现象,看本质——深度学习中的车型识别

    还记得上期的小千我嘛~满心欢喜的以为发现了深度学习应用的新大陆,结果只是想太多~多么痛的领悟~通过和程序员哥哥的亲切交谈,小千才发现自己还是too young too simple啊。原来神经网络(深度学习)已经应用到我们生活中的方方面面了,小千我还处在一个后知后觉的阶段。接下来是我们的程序员哥哥的科普阶段:自2006 年以来,深度学习在学术界持续升温,美国,加拿大,欧洲相继成为此领域的科研重镇。2010年,美国国防部先进研究项目局首次资助深度学习,参与方包括斯坦福大学、纽约大学和NEC 美国研究院等机构。2011年,微软语音识别采用深度学习技术降低语音识别错误率20-30%,是该领域十多年来最大的突破性进展。2012年,是深度学习研究和应用爆发的一年,深度学习被应用于著名生物制药公司黙克的分子药性预测问题,从各类分子中学习发现那些可能成为药物的分子获得世界最好效果;百度引入深度学习以后,语音识别效果的提升超过了以往业界在过去15 年里所取得的成绩。12月,微软亚洲研究院展示了中英即时口译系统,错误率仅为7%,而且发音十分顺畅。2013年,欧洲委员会发起模仿人脑的超级计算机项目,计划历时10 年投入16亿美元,由全球80 个机构的超过200 名研究人员共同参与,希望在理解人类大脑工作方式上取得重大进展,并推动更多能力强大的新型计算机的研发。深度学习在图像和视频方面的应用Google一直都是深度学习应用的佼佼者,谷歌变成Alphabet后,回归到以技术核心,使用人工智能来改进自己的产品,现在YouTube的视频缩略图也得到了改进。当人们上传视频时,谷歌会使用深度学习来自动创建最好的缩略图。对于应用在YouTube上的深度神经网络,谷歌从视频帧中抽样、打分、并得出最高分数的缩略图。谷歌 Photos 能够识别花、食品、动物,以及本地地标等对象,谷歌表示通过算法经过了训练,能识别“数千种”不同对象。当前和以前的系统生成的图片比较深度学习在自然语义理解和信息检索方面的应用随着公安行业的视频图像监控建设的迅速发展,图像不仅成为了一种重要的信息资源,也带来了海量数据。出现了对图像的内容语义如目标的颜色、纹理、布局等进行分析和检索的图像检索技术。然而在实际应用中,有很多无法用语义来准确描述检索内容的图片信息,比如在车辆套牌分析时,检索目标都是车辆,内容仅仅是车牌号的区别,显然语义描述很难达到用户期望的检索效果。于是,传统的检索方式在视侦、图侦应用时面临无法回避的困境,必须有其他新的手段来解决用户的难题。哒哒~至此我们的车型识别系统也就在深度学习的大潮中诞生啦!车辆的智能识别一直就是我们在研究的技术核心,车辆识别在车辆管理、车辆违规逃逸、车辆巡查布控等诸多问题上都起着关键作用。程序员小千我们不是有成熟的车牌识别和图像清晰化处理技术了嘛,在追击车辆犯罪这块已经取得了突出的成果呀!但是车牌信息只是车辆信息很少的一部分,单纯依赖车牌的系统是不稳定的,比如无牌车、套牌车等情况导致车牌信息不可用的时候,这类系统就无法提供可靠而有用的车辆信息了。程序员小千哦~是这样呀,那深度学习的算法是怎么样应用在我们的车型识别软件中的呢?用小明、小红和隔壁老王们都可以听懂的语言来解释,神经网络算法的核心就是:计算、连接、评估、纠错、疯狂训练。我们的车型识别系统就是采用这种卷积神经网络(CNN)的算法,利用大量的车型样本进行训练,提高准确度,这种方法相对于传统算法在识别率上有着本质上的区别,正是基于这种算法才能对各种场景下的车辆有一个高质量的识别率。程序员小千哦~我明白了,我的理解就是采用这种卷积神经网络的算法,是通过产生大量的计算量来提高识别率的,那我们的系统可以跟得上吗?我们的车型识别系统采用高性能GPU服务平台,在具备高性能CPU的同时搭载了4块高性能GPU加速卡,具备先进的GPU辅助计算能力,能够利用GPU海量的并行计算资源极大提高车型识别的速度,每台服务器具备300万张/天的识别能力。我们的车型识别系统不但速度快,车型库也是数据惊人哦~目前已经支持120种厂家品牌、1700多种车辆子型号的识别,且数据库还在不断增加中··· ···程序员小千我的天呐!下面就带你领略下我们的车型识别系统的风采吧!程序员车辆特征分析:通过识别引擎,检测到了车辆的车脸特征,识别结果包括了车身颜色、车型、品牌、型号、车牌号等。车辆标志物分析:系统可有效的识别车辆的细微标志物特征,再在相关车辆中查找同类特征,实现准确的”以图搜图“。识别的特征包括年检标、遮阳板、挂件、纸巾盒、转经筒等。全面的特征提取分析:全方位实现车辆的信息识别,真正实现以图搜车、全城追踪!

  • 技术分享 | 图像处理实战

    图像处理实战技术分享在事件的处理中,相关的视频资料常常由于其全息性、直观性、可回溯性以及不可回避性,成为勘查破案的第四大技术支撑手段,为破案提供了有价值的第一手线索,并可以发挥引导其他勘查协同作战的作用。但正如总有光明无法触及的角落,在实际的事件勘查中,往往出现因为各种因素导致事件可用的视频资料变的十分稀少,任何已掌握的视频资料都显得弥足珍贵。此时,就会出现需要在不清晰或极端条件的视频资料中获取更多线索的业务需求,图像处理即可体现它的价值。在开始图像处理之前我们先来了解一下图像处理相关的概念。图像增强的目标是改进图片的质量,例如可能是光学摄像系统的像差或离散焦、摄像系统与被摄物之间的相对运动、电子或光学系统的噪声和介于摄像系统与被摄像物间的空气介质(如雾霾),或者增加对比度,调整亮度和色彩,去掉模糊和噪声,修正几何畸变等;这种以提高图像质量为目的的图像增强和复原对于一些难以得到的图片或者在拍摄条件十分恶劣情况下得到的图片都有广泛的应用。图像增强主要是使图像清晰或者转变为更适合人分析的形式,图像增强并不要求忠实的反应原始图像,相反某些失真的图像可能比原始图像更为清晰的凸显出图片中的某些特定细节。在了解了上述原理之后,在对被处理图像进行处理之前就需要对其进行初步分析,判断其是何种类型的模糊,以便选择有针对性的参数对被处理图像进行增强复原。下面我们通过一些比较常见的模糊方式结合实际案例来一起探讨图像处理技术。1运动模糊此种类型的模糊主要是由摄像系统与被摄物之间的相对运动而产生的,也许会伴随着其他种类模糊,比如光线过强、色彩不明显、雾霾、噪声、纹理不清晰等。案例一在对其模糊种类进行分析判断之后就可以针对该模糊种类进行相应的参数调节。由上图判断可以得出以下结论,该图像中的车辆都处于该摄像系统的焦距之内,不存在虚焦、散焦,场景光照并不强烈,场景虽然比较昏暗但色彩和纹理基本清晰,由此可以确定该场景为运动模糊造成的车牌拖影。因此,我们选择去模糊类型中的去运动模糊,并调整相应的距离、角度、强度等参数,使之达到我们想要的标准。另外,由于国内车牌字符采用反光漆,在进行车牌处理时如果进行色彩类别中的反色操作,会使车牌的字符更加突出鲜明。处理结果如下图所示:E21885(左),Z5999(右)案例二调整去运动模糊参数,并对目标区域的纹理进行增强,最后反色得出以下结果。处理结果:A L6Y80案例三选择去运动模糊,并调节相应参数。最后反色得出以下结果。结果为:A M56262散焦模糊众所周知,视频摄像系统也和普通的照相机一样需要调整焦距,照射固定场景的摄像系统一般都会将焦距固定在场景的中间位置,所以此种类型的模糊主要是光学摄像系统的像差或离散焦造成的目标物体虚焦或散焦(即物体没有经过对焦区域)。由上图我们可以分析判断出:被处理图片中目标车辆移动速度应该不快,因此并未造成拖影。由于目标车辆的前部车灯,造成了目标区域亮度过高,但场景中的色彩较为鲜艳,车牌蓝底与白色字符清晰可见,不过场景中的目标区域纹理并不是特别清晰。场景中,由于摄像系统部署的位置下方正好有输电线路穿过,造成摄像系统镜头对焦在输电线路上,这样下方经过的目标就造成了虚焦或散焦。综上分析,我们选择亮度中的去强光照,现滤除场景中的强光;之后选择模糊处理中的去散焦模糊,对目标区域的焦距进行调整;最后选择纹理增强,加强目标区域的纹理,使之更为清晰夸张。通过集中不同的处理算法等到以上结论:AP55403亮度处理所谓的亮度模糊,其实就是在某些极端场景下或者摄像系统的感光度并不是很好的时候出现画面过暗,或者过亮的情况。有时此种模糊会伴随着其他模糊一起,但更多时候往往只是单纯的光照原因。但是在很多一线单位,苦于无此种处理手段或是技术人员,造成勘查难度的提升。如下图所示:此案例为简单的亮度处理案例,只需适当的调整目标区域的亮度,并反色即可。由上图可见,处理结果为N WH126去雾及纹理增强处理在一些事件中,主要的模糊是由于场景及摄像系统的原因造成的;主要体现在电子或光学系统的噪声和介于摄像系统与被摄像物间的空气介质(如雾霾),以及由于摄像系统的像素问题造成的模糊。如下图所示:由上图可见场景中存在轻微的雾气,并且由于摄像系统距离目标较远,并且由于摄像系统本身的像素不高(也可能是视频存储压缩过程中造成的丢帧、画质下降等问题),对于此类场景,只需对目标进行无损放大,并选择去雾模糊选项并调整参数,对去雾之后的纹理进行增强,并反色即可得到以下结果:处理结果为E TK1524多帧处理在很多事件中,由于目标快速移动、以及摄像系统造成了丢帧或像素丢失等问题。此时,单一的图片已经无法提供所需的信息,勘查员往往需要截取大量的连续的图片进行处理,并对其中的同一目标进行分析。在分析结果中我们会发现,每一帧图片都可以提供不同的有价值的信息,将这些图片所得到的所有有价值的信息进行综合分析,便可得到最终想要的结果。此事件中,目标为后车行车记录仪所显示的越野车,由于行车记录仪的清晰度不高,并且前车保持高速移动,造成动态模糊、目标区域失真和像素丢失。在大量截取连贯图片之后,对其展开处理分析,首先因为后车灯光较强,所以选择对目标区域进行去强光照处理,而后调整运动迷糊参数去除目标高速运动留下的拖影及抖动,最后对目标区域进行纹理增强并设置反色,以便使其关键内容更为凸显。处理完成之后,可以看到每张处理之后的图片都可以看到不同位数的字符,将其融合并进行综合研判,即可得出结果。处理结果如下:C AD191总结综上所述,在图像处理中最先要做的即为判断图像的模糊类型,而后根据图像的情况来调整相应的参数对其进行增强,当然在增强的过程中耐心的调整到最合适的参数也是必不可少。随着技术的成熟,图像处理也将能够在事件的勘察中发挥更大的作用。

  • 技术分享 | 基于内容的图像检索技术浅析

    基于内容的图像检索技术浅析技术背景setting互联网1.0/2.0/3.0时代数据产生与聚合的方式发生了天翻地覆的改变:在互联网1.0时代,99%的信息由门户网站发布,形成若干座“信息高峰”,普通用户仅仅是信息的被动接受者而非生产者;进入互联网2.0时代后,普通用户开始主动生产并分享信息,博客、微博、社交网络每天产生海量的数据,信息产生方式呈明显的去中心化趋势,信息世界发生剧烈“板块运动”:高峰崩塌、海洋产生,所有的用户都沉浸在平坦但一望无际的信息海洋之中;进入互联网3.0时代后,随着O2O、物联网、互联网+的蓬勃发展,互联网开始与日常生活发生融合,用户从2.0时代有意识的制作和发布信息转变为3.0时代无意识的产生信息,互联网也从外物的“海水”转变为进入用户每一个毛孔的“空气”,我们的生活即是互联网,每一个动作甚至每一个想法都转变成了互联网信息,由此,互联网进入大数据时代。互联网信息产生方式的每一次转变都意味着信息量的爆炸式增长,也意味着信息整合、搜索方式的转变,特别是互联网3.0时代,用户每时每刻都在无意识的产生大量图片、视频和音频数据,如何从这些非结构化数据中提取出结构化的、有意义的逻辑、实体乃至关系网络,从而对群体的趋势和个体的行为进行预测,是互联网大数据时代的新挑战和新机遇。技术路线route基于内容的图像检索(Content-Based Image Retrieval, CBIR)是由于视觉信息技术的飞速发展而得到重视并被提出的,它是计算机视觉在图像检索技术之中的应用。“基于内容”是指利用图像本身的计算机视觉部分的相关信息,对图像进行之后的相关操作,而非传统的文字信息检索方式。其利用对图像的视觉信息从低层到高层的层层处理,在过程中获取图像的相关信息并对其进行相应的检索,再迅速的从视觉信息数据库之中完成对相关的图像或图像序列的检索。基于内容的图像检索完全不同于往日文字信息检索方式的“索引”、“目录”和“摘要”等需要输入相关内容进行检索的繁琐方式。图1 CBIR整体框架图上图1是CBIR的整体框架图,它包括特征提取、量化、检索、重排序等过程。在不同阶段会遇到不同的问题,CBIR相关研究针对这些问题,提出了相应的解决方案。1特征提取方案问题:大部分图像检索模型都是基于图像的底层特征的,如直接根据颜色、轮廓、纹理等底层信息进行相似性度量。这种传统的方式,不能解决检索目标在不同环境下,因为光照、形变、分辨率变化所带来的影响。解决方案:SIFT特征。SIFT(Scale Invariant Feature Transform)描述算法是对图像缩放、旋转、光照变化甚至仿射变换保持不变性的图像局部特征描述方法。SIFT算法提取的SIFT特征向量具有如下优点:SIFT特征是图像的局部特征,其对旋转、尺度缩放、亮度变化保持不变性,对视角变化、仿射变换、噪声也保持一定程度的稳定性。独特性好,信息量丰富,适用于在海量特征数据库中进行快速、准确的匹配。多量性,即使少数的几个物体也可以产生大量SIFT特征向量。高速性,经优化的SIFT匹配算法甚至可以达到实时的要求。可扩展性,可以很方便的与其他形式的特征向量进行联合使用。具体到图像检索模型,其方法为:通过兴趣点检测方法,得到若干兴趣点,然后提取每个兴趣点的SIFT特征。2特征量化部分问题:检索算法无法解决图像检索过程中的“语义鸿沟”问题,因为计算机自动提取的图像视觉特征与人所理解的图像内容存在巨大的差异。现有的所谓基于内容的图像分类其实都是基于底层的图像特征,没有真正达到“语义”级别。怎样从图像的特征抽象出其内容或主题是跨越“语义鸿沟”要亟待解决的问题,只有跨越此鸿沟,才能真正地做到“基于内容”的图像检索。解决方案:“词袋”模型。“词袋”模型是文本的简化描述模型。在此模型中,文本被表达成无序的单词组合,不去考虑语法与词序。将“词袋”模型应用到图像分类领域中来,可以把“词袋”模型直观地理解为将每一幅需要描述的图像转化为一袋子典型的无序的视觉词汇的组合,如图所示。具体到图像检索模型,其方法为:提取图像区域的特征后,使用非监督聚类算法对训练集上所有图像区域的特征进行聚类,每一个聚类中心即对应一个视觉词汇,进而生成一个视觉词汇表,新来的图像区域特征就可以对应到视觉词汇表中的一个视觉词汇。3重排序部分问题:大多数图像分类算法总是忽视图像内容中目标与目标之间的空间关系,具体来说它们没有能够充分利用图像“暗示”给我们的图像区域隐含的空间相关性。解决方案:空间验证。检索匹配并不能标志着算法的结束,因为在匹配的过程中存在着大量的错配点。一般交错的线为错配点。检索模型常常运用RANSAC方法来进行空间验正,去掉不匹配的点。RANSAC方法(RANdom Sample Consensus)是根据一组包含异常数据的样本数据集,计算出数据的数学模型参数,得到有效样本数据的算法。RANSAC算法的基本假设是样本中包含正确数据,也包含异常数据(偏离正常范围很远、无法适应数学模型的数据),即数据集中含有噪声。这些异常数据可能是由于错误的测量、错误的假设、错误的计算等产生的。同时RANSAC也假设,给定一组正确的数据,存在可以计算出符合这些数据的模型参数的方法。其方法通过不断抽样,排除异常数据。我们的成绩achievement基于上文检索架构,武汉大千——武汉大学团队参加了面向视频检索的国际性评测TRECVID并在多个竞赛方向上取得了第一名。TRECVID是由美国国家标准技术研究所(NIST)于2001年开始组织实施的,至今已经连续举办15届。其中,实例检索任务(INstance Search task,INS),要求从海量视频数据(TB级)中检索出给定的30个包括人、车、物等(见图2)的特定目标。在面临检索目标大小不一,种类繁多,背景干扰大,对检索算法的性能和效果极具考验的情况下,团队基于经典的图像检索框架,提出了检索目标自适应的相似性度量方法,配合多源跨模态信息,如文本、人脸和车辆等,来综合得到初始的检索结果。在此基础上,团队进一步利用视频连续帧之间存在的时序关联特性,通过对相邻视频镜头的查询扩展来进一步优化初始检索结果,提高了算法准确率。本次竞赛的相关技术已经运用在面向监控视频的特定目标检索中,并多次在实际案例中发挥了重大作用,极大地提高了视频监控中针对特定嫌疑目标的排查效率,对维护人民生命财产安全具有划时代的意义。图5:部分检索目标示例和算法结果。四个检索目标分别是“这盏灯”、“调味盒”、“这只狗”、“这辆车”。红色方框表示查询目标,绿色方框表示检索到的目标位置。图像检索技术在公共安全领域的应用展望expectation互联网的高速发展,不仅为我们提供大量的信息便利的同时,一些负面信息的传播也给我们的生活带来巨大的挑战。尽管目前已经有相关的法律如实名制这样的机制来规范人的网络行为。但由于各种利益的驱动,仍会有人铤而走险。这些违法负面信息在网上的泛滥,不仅危害未成年人的身心健康,而且严重妨碍社会和国家安全。近年来,时常出现由于某些社会矛盾引发的群体聚集、宣泄不满,甚至出现暴力冲突的事件,这些“群体性事件”的预防成为当前维护社会稳定的一项重要工作。经研究,我们发现“群体事件“的发生往往具有发展性的特点,在事件发生之前往往需要一个酝酿和准备的过程,若能在早期发现并且防范事态的进一步扩大,就能减轻事件发生的危害乃至彻底避免事件的发生。而目前,互联网信息是这类信息快速传播的主要方式之一。图6:美亚舆情一键搜图像信息具有强烈的感知直观性,在很多情况下会成为不良信息的有效载体。而目前互联网搜索普遍采用的文本搜索技术只能对文本数据进行识别和挖掘,无法对图片视频这类非结构化数据进行分析,在目前舆情控制中存在不足和缺陷。许多群体事件的产生和传播都是通过网络有关图片的传播造成的,若能在事件传播阶段,利用基于内容的图像检索技术对敏感图片进行结构化提取与重构,在互联网图片、视频中进行自动搜索报警,找出与这些元素产生管理的人或物,再将这些结果进行结构化重组,找到这些人或物已有的关系网络、社交网络的强关联,从而顺藤摸瓜发现隐匿在互联网深处的不良组织,及早的发现和阻断负面影响的传播,遏制事态的恶化,将“群体性事件”扼杀在事件的传播阶段。总结变革力量以利用图像本身的计算机视觉部分的相关信息对图像从低层到高层的逐一处理,在过程中获取所需的图像信息并对其进行快速检索为核心的CBIR(基于内容的图像搜索技术),有着极强的实际应用功能,作为大数据时代的非结构化数据的新兴搜索技术,将对公共安全特别是平安城市视频监控领域有着无可比拟的变革力量。

欢迎光临武汉大千信息技术有限公司官方网站!

湖北省武汉市洪山区佳园路2号 高科大厦1228室

TEL: +86 027 87883503

FAX: +86 027 87883503

E-MAIL: daqian@videtek.cn