Swift 和 Metal 中的 iOS Live 相机控制粒子

一则或许对你有用的小广告

欢迎加入小哈的星球 ,你将获得:专属的项目实战 / Java 学习路线 / 一对一提问 / 学习打卡/ 赠书活动

目前, 星球 内第2个项目《仿小红书(微服务架构)》正在更新中。第1个项目:全栈前后端分离博客项目已经完结,演示地址:http://116.62.199.48/。采用技术栈 Spring Boot + Mybatis Plus + Vue 3.x + Vite 4手把手,前端 + 后端全栈开发,从 0 到 1 讲解每个功能点开发步骤,1v1 答疑,陪伴式直到项目上线,目前已更新了 255 小节,累计 39w+ 字,讲解图:1716 张,还在持续爆肝中,后续还会上新更多项目,目标是将 Java 领域典型的项目都整上,如秒杀系统、在线商城、IM 即时通讯、权限管理等等,已有 1300+ 小伙伴加入,欢迎点击围观


我最新的 Swift 和 Metal 实验借鉴了我最近的帖子 从实时视频生成和过滤金属纹理 以及我关于基于 Metal GPU 的粒子系统 ParticleLab 的许多帖子。

ParticleCam 是一个小应用程序,它从设备的后置摄像头获取光度层并将其传递到 我的粒子着色器 中。在着色器代码中,我查看每个粒子的相邻像素的值,并在进行一些平均后调整该粒子的线性动量,使其移向相机馈送的较亮区域。

使用我的 iPad Air 2 的 Retina 显示屏,最终结果是一个空灵的、模糊的粒子系统,它反映了图像。它适用于与相当静态的背景形成对比的缓慢移动的对象。上面的视频是通过将我的 iPad 指向正在播放一位女士打太极拳视频的屏幕而创建的。屏幕录制是使用 QuickTime 完成的,遗憾的是似乎在压缩时失去了一点空灵的品质。

ParticleCam 的源代码可在 我的 GitHub 存储库 中找到。我只在我的 iPad Air 2 上使用 Xcode 7.0 beta 5 和 iOS 9 beta 5 测试过它。