苹果发布开源 AI 模型 SHARP,将单张 2D 照片快速变成 3D 场景
苹果发布了名为 SHARP(Sharp Monocular View Synthesis)的研究成果和模型,可以在不到一秒钟内从一张普通的二维照片生成一个具有逼真效果的三维场景视图。
据介绍,SHARP 利用先进的 3D 高斯泼溅(3D Gaussian Splatting) 技术,将场景表示为大量带有颜色和光照信息的 3D 高斯球体。模型通过单次神经网络前向推理(feedforward),预测出数百万个这些高斯球的位置和外观,从而重建出三维效果。
与传统方法需要多角度图像或长时间优化不同,SHARP 能做到单图输入 + 快速输出,其输出的 3D 表现保持真实比例与深度,支持真实尺度的相机视角移动。在多个标准数据集上,它在图像质量指标(如 LPIPS、DISTS)上优于现有方法,同时速度提升约 1000 倍。
苹果已将 SHARP 的代码和模型权重发布到 GitHub:https://github.com/apple/ml-sharp

