Segment Anything
Segment Anything官网,model,github,论文,meta sam AI图像分割模型
什么是Segment Anything?
最近 Meta 提出的分割一切模型(Segment Anything Model,SAM、突破了分割界限,极大地促进了计算机视觉基础模型的发展。SAM 是一个提示型模型,其在 1100 万张图像上训练了超过 10 亿个掩码,实现了强大的零样本泛化。许多研究人员认为「这是 CV 的 GPT-3 时刻,因为 SAM 已经学会了物体是什么的一般概念,甚至是未知的物体、不熟悉的场景(如水下、细胞显微镜、和模糊的情况」,并展示了作为 CV 基本模型的巨大潜力。
Segment Anything官网: https://segment-anything.com/
Segment Anything论文: https://arxiv.org/abs/2304.02643
Segment Anything github项目地址:
https://github.com/facebookresearch/segment-anything
Demo链接: https://segment-anything.com/demo 数据集链接: https://segment-anything.com/dataset/index.html
Segment Anything 做为Facebook 推出的object分割模型(SAM、和数据集(SA-1B、,万物可分割。基于NLP的思路,SAM提出了promp的交互的概念,即通过提示返回有效的mask,提示如point, box等,可以用于下游任务。
Segment Anything使用方法
SAM使用有两种方法,一种进入官网的demo网页上传图片测试 一种是安装SAM库,代码测试。 第一种方法简单,进入demo网页: Segment Anything | Meta AI (segment-anything.com) 上传一张图片,不做任何promp提示
Segment Anything(SA、项目:一种新的图像分割任务、模型和数据集。在数据采集循环中使用我们的高效模型,我们建立了迄今为止最大的分割数据集,在1100万许可和尊重隐私的图像上有超过10亿个掩码。该模型被设计和训练为可提示的,因此它可以将zero-shot transfer零样本迁移到新的图像分布和任务。我们评估了它在许多任务上的能力,并发现它的零样本性能令人印象深刻,通常与之前的完全监督的结果相当,甚至更优。我们正在发布Segment Anything Model(SAM、和相应的数据集(SA-1B、,其中包含10亿个掩码和1100万个图像,以促进计算机视觉基础模型的研究。
Segment Anything借助了NLP任务中的Prompt思路,通过给图像分割任务提供一下Prompt提示来完成任意目标的快速分割。提示可以是前景/背景点集、粗略的框或遮罩、任意形式的文本或者任何指示图像中需要进行分割的信息。该任务的输入是原始的图像和一些提示语,输出是图片中不同目标的掩码信息。
收录说明:
1、本网页并非 Segment Anything 官网网址页面,此页面内容编录于互联网,只作展示之用;
2、如果有与 Segment Anything 相关业务事宜,请访问其网站并获取联系方式;
3、本站与 Segment Anything 无任何关系,对于 Segment Anything 网站中的信息,请用户谨慎辨识其真伪。
4、本站收录 Segment Anything 时,此站内容访问正常,如遇跳转非法网站,有可能此网站被非法入侵或者已更换新网址,导致旧网址被非法使用,
5、如果你是网站站长或者负责人,不想被收录请邮件删除:i-hu#Foxmail.com (#换@)
前往AI网址导航