和年初收购效率应用 Workflow 一样,苹果再次把钱袋子砸向了垂直应用领域。美国时间本周一(12 月 11 日),苹果正式宣布收购 Shazam 公司。
Shazam 是一家英国应用开发公司,成立于 1999 年。Shazam 最被大众熟知的便是其音乐识别 app,当你听到一首喜欢的歌曲又不知道歌名时,Shazam 就能派上用场。根据公开数据显示,截止到去年 10 月,Shazam 的移动设备应用已被下载超过 10 亿次。
苹果官方没有公布具体的收购价格,不过有外媒预测在 4 亿美元左右,远低于 Shazam 10 亿美元的估值。Snap 和 Spotify 也参与了收购竞争,但苹果笑到了最后。
苹果收购 Workflow 是为了提升其 iOS 系统的操作效率,4 亿美金收购 Shazam 的背后,仅仅是为了一个「音乐识别」功能这么简单吗?
抢夺功能,提高 Apple Music 的竞争力
实际上,在此之前 Shazam 的部分功能已经被集成到 Siri 里面了,你可以直接询问 Siri 现在播放的音乐。此前 Siri 曾短暂测试过主动探测歌曲的功能(类似于 Google Pixel 2 的实时音乐识别),但并没有推行下去。
Shazam 和 iOS 的深度整合将进一步提升苹果音乐识别的能力,最直接的受益者就是 Apple Music。苹果也在官方新闻里确认了这点:「Apple Music and Shazam are a natural fit。」
苹果在收购并将其免费后,Workflow 曾取消了众多第三方软件的支持。目前 Shazam 也在为很多音乐类服务提供识别功能,其中不乏一些 Apple Music 的竞争者(例如 Spotify)。
如果苹果收紧 Shazam 的对外业务,甚至将其转变为「专属应用」,有助于在垄断层面提升 Apple Music 的竞争力,也会影响其他公司的选择——虽然市面上有很多音乐识别类的软件,但 Shazam 的技术积累和体验是令人向往的。这也解释了为什么 Spotify 会参与到这次的收购竞争中。
更大的价值在 AR 领域
「音乐识别」已经成为了 Shazam 最显著的标签,但这并不是它的全部。实际上从 2015 年开始,Shazam 就开始在视觉识别领域布局,早期可以完成特定的电影、广告和电视节目等内容识别。
而今年 5 月,Shazam 发布了自己的 AR 平台(Shazam AR),通过一种名为「Shazam Codes」的编码可以让手机读取合作伙伴的商品信息, 在此基础上还能实现一些创意营销。例如 Shazam 和 Hornitos 进行了一项合作,通过「扫码」可以自动打开一个猜骰子的 AR 游戏。
Shazam 已经将音乐方面读取——分析的能力应用到了视觉领域,进一步丰富了它的应用范畴。这也是 Shazam 和其他音乐识别类软件的根本不同之处。从这个角度来说,Shazam 代表的其实是一种对物理世界「解读」的能力,这也是 AR 平台所亟需的能力。
在今年 5 月 I/O 大会上, Google 带来了一款全新的 AR 视觉搜索应用——Google Lens。它可以利用手机摄像头识别周围的物体,也可以用来读取路牌、店铺信息,甚至还可以通过「扫码」快速完成 Wi-Fi 连接。
Google Lens 的价值在于它让智能手机不仅仅能够看见世界,还能看懂摄像头里的一切,并帮助你采取一定的行动。除了 Google,苹果、Facebook 也相继公布了自己的 AR 战略,手机摄像头将成为下一代交互平台,已经成为了业界的共识。
在今年的 WWDC 开发者大会上,苹果公布了 AR 平台 ARKit。对于硬件依赖较低是 ARKit 的优势之一,因此众多 iPhone、iPad「摇身一变」就能变成支持 ARKit 的设备。在发布会上,苹果 CEO Tim Cook 表示他们将成为世界上最大的 AR 平台。
从现在已经亮相的 ARKit Demo 来看,更多的关注还是在技术层面,例如动作捕捉、轮廓确定等技能的实现,距离普罗大众的生活还是有一定的距离。相比之下,Shazam 在和品牌商合作中所积累的经验和资源,能够帮助 ARKit 更加「接地气」,跟日常生活产生更多的关联。
Shazam 对于「假想中」的苹果 AR 眼镜也是很有实用价值的。这样一副能够读取物理世界信息的眼镜,戴上去可以随时识别周围的音乐和图像信息,想想还是令人非常期待的。