使用 MobileNetv2 CoreML 模型与 Storyboard

使用MobileNetV2进行图像分类

MobileNetV2:倒置残差和线性瓶颈

马克·桑德勒、安德鲁·霍华德、朱梦龙、安德烈·日莫吉诺夫、陈良杰

在本文中,我们描述了一种新的移动架构MobileNetV2,它提高了移动模型在多个任务和基准测试以及一系列不同模型大小上的最新性能。我们还描述了将这些移动模型应用于我们称为SSDLite的新框架中的对象检测的有效方法。此外,我们还演示了如何通过DeepLabv3的简化形式构建移动语义分割模型,我们称之为Mobile DeepLabv3。

MobileNetV2架构基于倒置残差结构,其中残差块的输入和输出是薄瓶颈层,与传统残差模型相反,后者在输入中使用扩展表示,MobileNetV2使用轻量级深度卷积来过滤中间扩展层中的特征。此外,我们发现,为了保持表征能力,消除窄层中的非线性非常重要。我们证明了这提高了性能,并提供了导致这种设计的直觉。最后,我们的方法允许将输入/输出域与变换的表现力解耦,这为进一步分析提供了一个方便的框架。我们衡量我们在图像网分类、COCO 对象检测、VOC 图像分割方面的表现。我们评估准确性与乘加 (MAdd) 测量的运算次数以及参数数量之间的权衡

GitHub

查看 Github