ArCSEM: Artistic Colorization of SEM Images via Gaussian Splatting

📄 arXiv: 2410.21310v1 📥 PDF

作者: Takuma Nishimura, Andreea Dogaru, Martin Oeggerli, Bernhard Egger

分类: cs.CV, cs.GR

发布日期: 2024-10-25

备注: presented and published at AI for Visual Arts Workshop and Challenges (AI4VA) in conjunction with European Conference on Computer Vision (ECCV) 2024, Milano, Italy

🔗 代码/项目: PROJECT_PAGE


💡 一句话要点

提出基于高斯溅射的ArCSEM方法,实现扫描电镜图像的艺术化自动着色

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 扫描电镜图像 图像着色 高斯溅射 三维重建 新视角合成

📋 核心要点

  1. 扫描电镜图像着色通常依赖手动,耗时耗力,尤其是在处理大量图像时。
  2. 利用场景的3D结构,将颜色信息从少量已着色视图传播到所有图像,实现自动着色。
  3. 通过高斯溅射等技术,无需手动干预或标注即可实现高质量的新视角着色合成。

📝 摘要(中文)

扫描电子显微镜(SEM)广泛应用于微观物体表面结构的分析,能够捕捉到高度精细的灰度图像。为了创建更具表现力和真实感的图像,通常需要艺术家借助图像编辑软件手动对这些图像进行着色。当需要对扫描物体的多个图像进行着色时,这项任务变得非常繁琐。本文提出了一种方法,通过利用微观场景的潜在3D结构,将颜色信息从少量已着色的视图传播到所有捕获的图像,从而简化这一过程。我们探索了几种场景表示技术,并实现了SEM场景高质量的新视角着色合成。与先前的工作不同,获取3D表示无需手动干预或标注。这使得艺术家能够对序列中的单个或少量视图进行着色,并自动检索完全着色的场景或视频。

🔬 方法详解

问题定义:扫描电镜(SEM)图像通常是灰度的,缺乏色彩信息,限制了其表现力和艺术性。手动着色过程耗时且需要专业技能,尤其是在处理大量SEM图像序列时,效率低下。现有的方法可能需要手动标注或干预,增加了工作量和成本。

核心思路:论文的核心思路是利用SEM图像的潜在3D结构,将颜色信息从少量已着色的图像传播到整个图像序列。通过建立场景的3D表示,可以实现新视角的着色合成,从而自动完成整个序列的着色。这种方法避免了手动着色的繁琐过程,提高了效率。

技术框架:ArCSEM方法主要包含以下几个阶段:1) 从SEM图像序列中重建场景的3D结构。2) 艺术家对少量关键帧进行手动着色。3) 将着色信息投影到3D场景中。4) 使用高斯溅射技术,从3D场景渲染出新视角的着色图像。整体流程无需人工干预,实现了自动化的着色过程。

关键创新:该方法最重要的创新点在于利用高斯溅射技术进行新视角的着色合成,无需手动标注或干预即可获得高质量的3D场景表示。与传统方法相比,ArCSEM能够更高效地将颜色信息从少量已着色的视图传播到整个图像序列,极大地减少了人工工作量。

关键设计:论文采用高斯溅射作为场景表示方法,每个高斯分布包含位置、颜色、不透明度和协方差等参数。通过优化这些参数,可以实现高质量的新视角渲染。损失函数可能包含颜色重建损失、深度一致性损失等,以保证渲染结果的准确性和一致性。具体的网络结构和参数设置在论文中可能有所描述,但摘要中未提及。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

ArCSEM方法实现了扫描电镜图像的自动着色,无需手动标注或干预。通过对少量图像进行着色,即可生成整个图像序列的着色结果。实验结果表明,该方法能够生成高质量的新视角着色图像,显著提高了SEM图像的可视化效果和艺术性。具体的性能数据和对比基线在摘要中未提及,需要在论文中查找。

🎯 应用场景

ArCSEM方法可广泛应用于生物医学、材料科学等领域,用于增强SEM图像的可视化效果,帮助研究人员更直观地理解微观结构。该方法还可以用于创建具有艺术感的SEM图像,用于科普教育、艺术展览等。未来,该技术有望集成到SEM成像系统中,实现实时自动着色。

📄 摘要(原文)

Scanning Electron Microscopes (SEMs) are widely renowned for their ability to analyze the surface structures of microscopic objects, offering the capability to capture highly detailed, yet only grayscale, images. To create more expressive and realistic illustrations, these images are typically manually colorized by an artist with the support of image editing software. This task becomes highly laborious when multiple images of a scanned object require colorization. We propose facilitating this process by using the underlying 3D structure of the microscopic scene to propagate the color information to all the captured images, from as little as one colorized view. We explore several scene representation techniques and achieve high-quality colorized novel view synthesis of a SEM scene. In contrast to prior work, there is no manual intervention or labelling involved in obtaining the 3D representation. This enables an artist to color a single or few views of a sequence and automatically retrieve a fully colored scene or video. Project page: https://ronly2460.github.io/ArCSEM