财联社讯(编辑旭日)AI视觉领域迎来新模型“炸场”,图像识别门槛大幅降低。据财联社报道,Meta周三发布了一个人工智能模型,可以从图像中挑选出单个对象,以及一个图像注释数据集。该模型名为SegmentAnythingModel(SAM),Meta官方表示这是有史以来最大的分割数据集。同时Meta将该模型及数据集在GitHub上开源,以促进机器视觉通用基础大模型的进一步研究。
由证券之星根据公开信息整理,由算法生成(网信算备310104345710301240019号),与本站立场无关,如数据存在问题请联系我们。本文为数据整理,不对您构成任何投资建议,投资有风险,请谨慎决策。
由证券之星根据公开信息整理,由算法生成(网信算备310104345710301240019号),与本站立场无关,如数据存在问题请联系我们。本文为数据整理,不对您构成任何投资建议,投资有风险,请谨慎决策。
SAM是计算机视觉领域发布第一个用于图像分割的、可通过提示(prompt)方式应用的通用大模型,类似自然语言领域(NLP)中的大模型ChatGPT。英伟达人工智能科学家JimFan将Meta的这项研究称作计算机视觉领域的“GPT-3时刻”之一——其分割方法可以通用,可对不熟悉的物体和图像进行零样本泛化,初步验证了多模态技术路径及其泛化能力。
国盛证券刘高畅4月8日研报中表示,预计1-5年内,多模态发展将带来AI泛化能力提升,通用视觉、通用机械臂、通用物流搬运机器人、行业服务机器人、真正的智能家居会进入生活;5-10年内,结合复杂多模态方案的大模型有望具备完备的与世界交互的能力,在通用机器人、虚拟现实等领域得到应用。
首创证券翟炜4月11日研报中指出,本周META发布了视觉大模型SAM,紧接着智源研究院视觉团队也推出通用分割模型SegGPT,通用视觉大模型之战也打响。视觉大模型能把任意图像从像素阵列解析为视觉结构单元,像人类视觉那样理解各类场景,这对自动驾驶、安防、智能家居、工业视觉等众多行业都将带来飞跃式提升。
公开资料显示,计算机视觉模拟大脑完成对图像的处理和解释,实现对相应场景的多维理解。以图像、视频为代表的视觉数据是互联网时代信息的主要载体之一,赋以人工智能模型感知并理解这些海量的视觉数据的能力,有助于提高人工智能自主适应环境的能力。
作为人工智能(AI)和深度学习的子领域,计算机视觉可训练卷积神经网络(CNN),以便针对各种应用场合开发仿人类视觉功能,利用图像和视频进行数据分割、分类和检测。
建议关注视觉方案的虹软科技;安防模型及应用包括海康威视,大华股份等;工业机器视觉包括奥比中光,凌云光等;AR/VR相关上市公司包括立讯精密,歌尔股份,水晶光电,创维数字,兆威机电,长盈精密等。
不过值得注意的是,分析人士表示对于视觉算法运行显卡,国内一些厂商已经有了自研产品,但推理速度、显存等性能与国外厂商有一定差距。除此之外,不同显卡和框架之间的迁移和适配过程复杂。为了让视觉算法落地到国家的各行各业按月配资杠杆开户,国产化进程任重而道远。