# CoreML # LiveText CoreML 是苹果早期发布的机型学习 API,通过他可训练一些人工智能相关的东西,其中 iOS15 推出的 LiveText 便是其中之一,他可以让我们对图片里面的一些文字做提取操作 ,在 iOS16 中,apple 增强了 LiveText 的能力,除了静态图片,还加入了视频帧的支持。
其他更新包括通过名为LiveText的新功能。
LiveData(实际上是MutableLiveData)将android:text的变化绑定到Activity/Fragment //xml <data> <variable name="<em>liveText</em> match_parent" android:layout_height="wrap_context"/> //然后在Activity/Fragment中 MutableLiveData<String> liveText = new MutableLiveData<String>(); mBinding.setLiveText(liveText); liveText.observe(this,text->{ //
其他值得关注的功能,就有LiveText,实况文本。 以前的读取文本,大概就是照一张照片识别当中的文本。现在视频也可以做到了。