网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

基于沉浸式增强现实的流场可视化方法  PDF

  • 许世健 1
  • 吴亚东 2
  • 赵丹 3
  • 王赋攀 1
1. 西南科技大学计算机科学与技术学院,绵阳, 621010; 2. 四川轻化工大学计算机科学与工程学院,自贡, 643002; 3. 中国空气动力研究与发展中心,绵阳, 621000

中图分类号: TP399

最近更新:2020-11-02

DOI:10.16356/j.1005-2615.2020.05.006

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
目录contents

摘要

针对目前二维环境中流场可视化应用深度信息不足、交互不自然等问题,提出一种基于沉浸式增强现实的流场可视化方法,在现实空间中通过流线展示流场变化特征,利用沉浸式增强现实技术为用户提供有效的深度信息,并通过手势、凝视等自然交互方式进行流线布置。由于增强现实设备不具备流场可视化计算所需要的计算能力,该方法采用服务器/客户端架构,以服务器端进行流线计算,以头戴增强现实设备进行流线定位、结果绘制及用户交互。在此基础上,设计了基于用户凝视的流线布置和基于凝视与手势的种子点放置两种交互方式,利用自然交互提高用户流线布置及分析效率。实验结果表明该方法能够在增强现实环境中准确完成流线绘制,反映流场的变化情况,并提供快捷、自然的交互。

流体的运动是航空航天、气象学、化学工业以及生物医学等领域的研究热点之一。人们为了探究其运动规律,在一定的假设条件下,建立数学模型,并利用计算机模拟运算得到大量数据以对其进行分析研究。面对目前大规模网格的流场数据,人们需要一种直观的方式对其进行展示,以分析其中的潜在问题及规律。流场可视化是将数据转化为图形图像的重要手段。虽然流场可视化已经有了多年的发展,但目前流场可视化应用仍局限于二维桌面环境。流场数据一般与三维空间位置相关联,此类数据的可视化结果一般为三维内容,由于深度信息的缺乏,二维桌面平台在观察此类数据时,需要用户进行多次的视角变换才能得到有效的观察结果。而且由于二维桌面平台往往使用鼠标、键盘进行交互,用户需要通过繁琐的鼠标拖动与键盘指令实现势角变换与三维工具移动,此类交互由于不符合人类习惯,缺乏自然性,需要占用用户大量的学习时间,给用户带来不良的使用体验。

随着头戴式显示技术以及交互技术的高速发展,出现了便携、高分辨率且经济的沉浸式头戴显示设备(如HTC Vive,Oculus Rift,Microsoft HoloLens,Meta等)。沉浸式显示设备拥有比桌面显示器更宽的视野,能够有效地增强用户的沉浸感和存在感,并使用户在处理三维信息时能够有效地利用外围视觉,这有助于提供态势感知上下文,辅助用户空间判断,并提供更加便捷的导航和移[

1]。而且沉浸式显示技术还能够在物理空间中显示数据可视化结果,提供直观的深度信息,以及手势、凝视和眼动等更加符合人类习惯的交互方[2⁃3]。最近出现的沉浸式头戴增强现实设备,如Meta[4]或Microsoft HoloLens[5]能够投射稳定的立体投影,并将其放置在用户所处的现实空间中的特定位置。除与之交互之外,人们还可以自由地在全息图周围走动,甚至可以将可视化结果作为全息图放置在自己的环境中,此类功能的出现为可视化工作者们提供更加广阔的设计空间。

针对目前二维桌面环境下流场可视化应用深度信息不足、交互不自然等问题,提出一种基于沉浸式增强现实的流场可视化方法,通过在现实空间中使用流线法可视化流场数据,为用户提供有效的深度线索;利用用户凝视与手势高效的改变流线布置,帮助用户观察流场不同位置的变化情况。该方法根据头戴增强现实设备便携但计算能力低下的特点,设计了基于客户/服务器架构的系统架构;提出了自动+手动的定位方法在现实空间中完成流线定位;使用基于Unity Mesh的流线、流管绘制算法完成流线的绘制。本文基于该方法形成了原型系统,在该系统的基础上设计了基于用户凝视的流线布置方法与基于凝视与手势的种子点放置方法。最后通过一组由真实模型模拟计算生成的流场数据对系统及其中的方法进行了验证,并通过用户实验对系统中的交互方法进行了评估。

1 相关工作

21世纪初,人们便开始了对于增强现实在可视化领域的应用探索。Belcher等对于基于增强现实的网络节点可视化进行了探索,该工作证明增强现实环境所提供的深度线索和运动线索能够有效地辅助用户进行空间理解与节点分[

6]。Kalkofen等研究了现实环境中基于用户注意力+上下文的交互方法,并将汽车的构造图叠加显示在真实的汽车模型上,以帮助用户查看被遮挡的上下文信[7⁃8]。Schall等将GIS数据可视化结果叠加到真实的街道上,用以辅助公司外勤人员外出工[9]。Barnum等将架设在墙体后的相机拍摄的内容叠加到墙体上,从而制造出透视的效[10]。Grasset等通过视觉显著性算法和边缘分析算法识别环境内的物体,并将识别结果通过标签的方式放置到物理空间中,从而促进用户进行有效的环境认[11]。Mahfoud等开发了基于Hololens的二维溢油模拟系统,并提出了一种基于用户视线的可视化方[12]。Gasques等将HoloLens的应用扩展到了医疗领域,通过将CT数据的可视化结果叠加在现实空间中,辅助医学生了解病理学知[13]。Pratt等则将增强现实应用在外科手术辅助上,通过将病人的CT图可视化叠加在病人的身体上,从而辅助外科医生进行手[14]。Butscher等将增强现实应用在信息可视化领域,通过在真实空间中显示多维散点图,以促进多维数据协作分[15]。Inoue等将实时采集的声场数据可视化结果叠加在声源附近,旨在强化人们对于声场的理[16]。虽然沉浸式增强现实技术已在可视化领域有了多年的探索,但目前还鲜有将沉浸式增强现实技术与流场可视化结合的研究工作,故本文针对基于沉浸式增强现实的流场可视化进行了研究。

2 系统架构

传统的流场可视化方法一般包含数据映射、数据绘制以及显示交互3个过程。但头戴增强现实设备受其便携性影响,无法搭载重量较大的计算、显示芯片,故其计算性能无法满足数据映射时的计算需要;而且由于增强现实技术在真实空间中进行可视化结果显示时,可视化结果的显示位置与现实空间有相关性,故在绘制与显示前,还需进行定位工作以保证在正确的位置显示可视化结果。因此传统的流场可视化架构难以支撑沉浸式增强现实环境下的流场可视化方法。针对上述问题,本文设计了适用于头戴增强现实设备的客户/服务器架构方法,在服务器端完成流线法中的数据映射过程(流线计算),在服务器端完成流线定位、绘制、显示与交互。

架构方法如图1所示。服务器端搭载流线计算程序与服务器程序,其中流线计算程序负责读取流场数据,通过计算将其映射为几何数据,服务器程序负责接收客户端传回的流线种子点信息,将其发送至流线计算程序,并将计算结果传回头戴增强现实设备。服务器端为头戴增强现实设备,包含定位模块、通信模块、交互模块以及显示模块,其中定位模块负责在真实空间中定位流线显示位置,交互模块负责将用户的凝视与手势信息转换为种子点信息,通信模块负责将用户交互得到的种子点信息发送至服务器端,并接收服务器端传回的流线计算结果,显示模块负责读取流线计算结果,将其绘制为流线后,在真实空间进行显示。

图1 系统架构图

Fig.1 System architecture diagram

在系统运行时,首先在客户端通过定位模块完成流线定位工作,然后通过交互模块获取用户凝视与手势信息,将其转换为种子点信息后,由通信模块将种子点信息发送至服务器程序,随后服务器程序调用流线计算程序,读取流场数据并完成流线计算,最后将计算结果传回客户端,客户端接收到计算结果后,通过显示模块将其绘制为流线,并根据定位结果将其显示到正确的位置。

3 自动+手动的流线定位方法

虚拟物体在物理空间中的准确定位是增强现实领域中的关键问题,传统的增强现实定位技术(如Vuforia)一般采用图像识别技术进行定位,通过物理空间中的特征图像定位虚拟物体位置。此类技术受到光照、特征图像污损等问题的影响,无法对虚拟物体进行精确的定位,这会对流线在真实空间中的准确性造成影响。故针对虚拟物体无法精确定位,导致流线在真实空间中无法准确反应流场运动规律的问题,提出自动+手动的流线定位方法,以保证流线在现实空间中的准确显示。

为减少用户手动定位工作量,系统在手动定位前首先进行自动定位。自动定位采用传统的增强现实定位方法,在物理空间中将特征图像放到流场中心物体附近并记录相对位置(图中的特征图像由Adobe Illustrator 根据Vuforia提供的模板设计而成),如图2所示。系统通过定位模块调用头戴式增强现实设备相机在现实空间中检测特征图像。在检测到特征图像后,根据特征图像与流场中心物体的相对位置,即可计算出虚拟物体的显示位置。

图2 虚拟空间与真实空间的相对位置对比

Fig.2 Position comparison between virtual environment and real environment

在完成自动定位后,如图3所示,将虚拟模型显示在现实空间中,如虚拟物体相对于真实模型有较大偏移,用户可通过手动校准UI调整虚拟物体的相对位置。当用户观察到虚拟物体与真实物体完全重合后,便可完成手动定位。在虚拟物体准确定位后,系统将虚拟物体的坐标原点作为流线几何数据的坐标原点,便可在真实空间中准确显示流线。

图3 自动定位与手动定位

Fig.3 Automatic registration and manual registration

4 流线绘制

目前常用的头戴增强现实设备程序基于游戏引擎开发,但常用的游戏引擎还没有包含流线绘制功能,故需要实现基于游戏引擎的流线绘制方法。本文提出基于Unity Mesh的流管绘制方法,该方法能够基于Unity3D开发的增强现实程序,根据带有连接关系的点数据进行流线、流管绘制。

4.1 基于Unity Mesh的流管绘制方法

Mesh是Unity3D提供的网格组件,该组件可根据开发者提供的三维网格点集及网格点之间的连接关系,生成用于三维模型显示的网格。因此流管绘制的问题可转化为网格点集及网格点连接关系的计算问题。流管绘制方法如下。

由服务器传回的结果,可得流线点集中每一点的位置,设流线中任意一点为Pnn为该点在流线中的序号,其坐标为(xnynzn),则其后点表示为P(n+1),其前点为P(n-1)。流管可视为由1个正多边形,在流线点之间依序进行三维变换所形成的三维立体图形,当流管半径足够小时,绘制结果即为流线,否则为流管。

首先生成初始正多边形:如图4所示(图中的N为3,由于初始正多边形Z轴为0,所以图中忽略Z轴),设初始正多边形的中心点为(0,0,0),流管半径为r,多边形边数为N,则正多边形的点数为N,初始正多边形每一个点的编号为m,则初始正多边形各点的坐标可表示为

图4 初始正多边形生成示意图

Fig.4 Generation of initial polygon

Povm=cos m×2πN,sin m×2πN,0 (1)

其前向向量为(0,0,1),向上向量为(0,1,0)。然后将初始正多边形在各流线点之间进行坐标变换。由流线当前点的坐标P(n),可得初始正多边形变换到该点网格多边形所需的平移矩阵,表示为

Mtn= 100001000010xnynzn1 (2)

为保证流管弯曲时的自然性,初始正多边形按照如下方式进行旋转。计算流线各点方向向量,表示为

Dn=Pn+1-Pn (3)

D(n)D(n-1)计算出流线各点网格多边形的前向向量

Fn=Dn-1+Dn (4)

设流线初始点多边形的向上向量U(0)为(0,1,0),则可根据式(5)依次计算出流线各点的向上向量

Un=Fn×(Un-1×Fn) (5)

旋转初始正多边形,以保证其向上向量、前向向量与UnFn相同,可得该点的旋转四元数Rn,其值表示为(Ωnαnβnγn)。

R(n)可得初始正多边形变换到该点网格多边形所需的旋转矩阵,表示为Mrn,其各列分别表示为

A1=1-2βn2-2γn22αnβn+2Ωnγn2αnγn-2Ωnβn0 (6)
A2=2αnβn-2Ωnγn1-2αn2-2γn22βnγn+2Ωnαn0 (7)
A3=2αnγn+2Ωnβn2βnγn-2Ωnαn1-2αn2-2βn20 (8)
A4=0001 (9)
Mrn=A1A2A3A4 (10)

由流管半径r,可得初始正多边形变换到该点网格多边形所需的缩放矩阵,表示为

Msn=r0000r0000r00001 (11)

利用上述矩阵对初始正多边形进行坐标变换,可得流线各点处网格正多边形各点的坐标,表示为

Pv(m,n)=Mtn×Mrn×Ms(n)×Pov(m) (12)

式中:m为正多边形上的点编号,n为流线点编号。

网格连接规则如图5所示。图中为基于两点所生成的N=3的流管网格,该网格的三角形面片为ABDDBEBCEEFCCAFFDA

图5 网格连接规则示意图

Fig.5 Grid connection rules

4.2 流线颜色编码

系统原型按照流场数据中各点的速度属性对于流线进行颜色编码,以观察流场数据中速度的变化情况,编码方式采用异色+饱和度的编码方式。如图6所示,系统将速度的大小分为低速、中速和高速3个区间,每个区间对应1种颜色,在每个区间中根据速度的大小改变流线颜色的饱和度。

图6 流线颜色编码示意图

Fig.6 Regular of streamline coloring

饱和度S的计算方法如式(13)所示。系统首先计算流线点集的最大速度(maxv)和最小速度(minv),通过计算当前点速度v在速度区间中的位置,确定渲染流线时所用颜色的饱和度S。在此渲染方式下,高速区域的流线颜色更深,并呈现为红色;低速区域的流线颜色更浅,并呈现为蓝色。

S= v-minvmaxv-minv (13)

5 交互设计与实验验证

为了验证上述系统架构、定位方法及流线绘制方法,本文以真实模型的流场数据为应用场景,利用现有的沉浸式增强现实设备对于上述方法进行实现,形成了原型系统。由于目前还鲜有将增强现实技术与流场可视化相结合的工作,故在该系统的基础上进行了针对流线法的交互探索,提出了基于用户凝视的流线布置方法与基于凝视与手势的种子点放置方法,并针对两种交互方法进行了用户评估实验,以测试两种交互方法的交互效率。

5.1 定位及绘制方法验证

本文实验平台为1台PC机和一台头戴增强现实设备,详细配置如下:PC机的处理器为Intel(R) Core(TM) i7⁃7700HQ CPU@2.80 GHz,8 GB内存,GTX 1050显卡。头戴增强现实设备为Microsoft HoloLens 1st。测试数据由XFlow根据模型的数字文件仿真计算生成,含有700万个网格,现实空间中的模型由该模型3D打印生成。测试系统的服务器程序为基于Net 4.0开发的控制台程序,其中网络通信技术基于Windows device portal及Windows UWP socket模块开发。流线计算程序为基于VTK开发的控制台程序。客户端的增强现实程序基于Unity3D 2017.4.27开发,其中定位技术基于增强现实框架Vuforia开发。

流线绘制效果如图7所示。在用户定位工作准确完成后,系统能够在真实模型各处根据服务器的计算结果准确完成流线绘制;在空气流速相对较快的区域(如机翼上方),流线呈现红色;而在空气流速较慢的区域(如机翼下方),流线呈现蓝色;在空气流速适中的区域(如机身的大部分区域),流线呈现黄色;在尾翼、机翼末端等部分,流线呈现出一定的涡流现象,均符合空气动力学中的物理定律。

图7 系统绘制交互示意图

Fig.7 Rendering result and interaction method

绘制方法的绘制效率如表1所示。由于HoloLens 1st的性能限制, 绘制帧数随着流线数量的增加逐渐下降,当流线数量在200~300条时,系统的帧率能够稳定在20~30帧,满足用户观察交互的基本要求。

表1 绘制算法效率表
Table 1 Rendering efficiency
流线数量流线点数量帧率/(帧·s-1)
100 24 085 47~48
200 50 360 24~25
300 73 149 17~18
500 116 068 11~12

5.2 基于用户凝视的流线布置方法

在针对流场数据的可视分析过程中,用户需在流场数据空间内的不同位置进行流线布置,对流场数据多个位置进行观察,并对观察结果进行整合后,才能得到分析结果。在传统的可视化应用中,用户需通过菜单切换不同的可视化工作,如用户多次在可视化结果间进行切换,会极大地降低用户的分析效率,故针对上述问题提出基于用户凝视的流线布置方法。凝视会随着人类在观察物体时的视角变化而变化,该方法允许用户将已完成的可视化结果通过凝视目标物体对应位置的方式进行转换,从而帮助用户更快地观察到感兴趣区域的特征。本文的原型系统根据数据的特点,在现实空间中选择了3处流场变化最剧烈的位置对于该交互方式进行了实现。根据可视化探索分析,流场变化最剧烈的部分为机翼与尾翼两处,故选择了机身、机翼与尾翼3处进行了流线绘制,从而对该交互方式进行了实现。如图7(b)—(d)所示,用户通过凝视飞机模型的机身、机翼与尾翼部分,改变流线的布置方式,从而改变可视化结果。

5.3 基于凝视与手势的种子点布置方法

传统的二维科学可视化软件(如Paraview)使用鼠标拖动的方式在可视化场景中布置种子点,使用户能够将流线的种子点布置到自己感兴趣的区域,这种方法受限于二维平台,缺少深度信息,进而导致用户需反复拖动屏幕,转动视角,反复调整种子点位置,很难高效地将种子点放置到正确区域。在沉浸式增强现实环境中,用户凝视与手势是一种自然且快捷的交互方法,用户可通过其自身与头部的移动,在真实空间中快速完成点定位操作,并利用手势进行快速指令。因此本文提出基于凝视与手势的种子点放置方法,如图7(e)—(g)所示,用户首先利用凝视确定种子球的位置,然后通过Air⁃Tap手[

17]进行确认,使用Navigation手[17]调整球体半径,调整完成后使用双击手势进行确认。确认后使用预定义的交互界面来控制种子球内需要布置的种子点数量。在该界面中,WIFI图标反应了种子点的数量信息,当WIFI信号越强时,种子点的数量越大,用户可通过界面中的加减图标对于种子点数量进行调整。随后头戴增强现实设备会将种子球的位置及半径信息上传至服务器程序。经计算后,服务器程序会将计算结果传回,由系统的显示模块将结果显示在正确的位置。

5.4 交互评估

为了评估上述交互方式的可用性与自然性,本文进行了针对桌面端与沉浸式增强现实环境下的种子点布置方法的对照实验,并且对于基于用户凝视的流线布置方法进行了用户主观量表实验。

5.4.1 实验内容

针对种子点布置的交互任务如图8(a)所示。根据领域专家的意见选择了测试数据中流场数据变化较为明显的机头、左机翼、右机翼及机尾4个部分作为种子点布置的目标位置,在实验中以绿球的形式表示。如图8(b)所示桌面端使用传统的种子球方法进行流线布置,在该方法中,用户使用鼠标拖动的方式进行视角旋转与种子球拖动。用户将种子球(实验中以红球表示)拖入绿色的目标区域,并点击确定,即完成1次种子点布置任务。如图8(c)所示,在沉浸式增强现实环境中,用户使用凝视进行种子点位置选择,并使用Tap手势进行确认。

图8 实验示意图

Fig.8 Tasks of experiment

实验采集的数据包括交互时间、准确度以及用户心理难度。针对基于用户凝视的流线布置方法,实验采用量表的形式对于用户的认可度进行调查。

实验1共招募了15名志愿者,平均年龄27.6岁(标准差13.5),其中包含13名男性、2名女性。所有志愿者均具有计算机科学背景并从事过流场可视化领域的技术研发,其中6名志愿者还具有计算流体力学背景。

5.4.2 实验结果

针对种子点布置方法的实验结果包括交互时间(s)、准确度(m)、用户心理难度。图9比较了用户在沉浸式增强现实环境(HoloLens)与桌面环境下的平均交互时间,其中桌面环境所耗费的时间受到目标点位置的影响。当目标点的位置较近时(如尾翼),所耗费的时间较少;当目标点的位置较远时(如机头),会耗费更多的时间。沉浸式增强现实环境下基于凝视与手势的种子点布置方法则不会受到目标点位置的影响,且在任何目标点上所耗费的时间都远小于桌面环境。

图9 交互平均时间示意图

Fig.9 Average interaction time

图10比较了两种环境下种子点布置方法的准确度。准确度的标准为用户选择的位置与目标中心之间的平均距离。当该距离越小时,交互越准确。其中桌面端的距离均小于5 mm,而沉浸式增强现实环境下的距离则在1 cm左右,其准确度略低于桌面环境。

图10 交互准确度示意图

Fig.10 Interaction accuracy

图11比较了两种种子点布置方法的心理难度。对于沉浸式增强现实环境下的种子点布置方法,2/3以上的用户认为该方法的操作难度为简单或非常简单,仅有4名用户认为该交互方法的难度适中。对于桌面环境下的种子点布置方法,仅有7名用户选择了简单,有8名用户认为该方法的难度适中或困难。

图11 用户心理难度结果图

Fig.11 Result of mental difficulty

图12给出了用户对基于凝视的流线布置方法的认可程度(认可范围1~5,数字越高表示认可程度越高)。其中图12(a)给出了用户对于流线切换效率的认可程度。有13名用户的认可度高于4,仅有2名用户对于该交互方法的认可度为3。图12(b)展示了用户对于辅助流场数据观察的认可程度,其中14名用户的认可度超过了4,仅有1名用户的认可度为3。

图12 用户对于基于用户凝视的流线布置方法的认可度示意图

Fig.12 Customer satisfaction of streamline placement method based on user gaze

5.5 结果分析与讨论

经过结果分析不难发现:基于凝视与手势的种子点布置方法相较于桌面环境的种子点布置方法拥有更高的交互效率。虽然准确度有所降低,但偏差均在1 cm左右,仍能保证用户将种子点布置在能够接受的范围内。多数用户认为:由于沉浸式增强现实环境相较于桌面拥有更加丰富的深度信息,基于凝视与手势的种子点布置方法无需进行繁琐的视角变换,即可完成种子点位置选择,因此能够更加简单、高效、自然地完成种子点布置任务。对于使用评价不高的用户,实验收集了此类用户的意见,用户表示:虽然沉浸式增强现实环境下的交互方法效率更高,但HoloLens过于沉重(特别是女性用户),长期进行凝视交互造成了较大的生理负担。还有一些用户对于沉浸式环境下的交互方式较为陌生,从而增加了此类用户的学习成本,提高了此类用户对于该交互的难度认知。

多数用户对基于用户凝视的视点持认可态度,认为该交互方式能够所见即所得地得到用户想要的可视化结果,能够有效地提高流线的切换效率,辅助用户快速分析流场各处的流动规律。部分用户仍因设备较重的原因,认为凝视交互造成了生理上的疲劳,故对于流线切换效率的提升给出了中等认可度。少数用户认为沉浸式增强现实设备的分辨率较低,对于流线的观察有一定的阻碍作用,所以对于辅助观察方面的认可度为中等。

综上所述,沉浸式增强现实环境下的交互方式能够更加高效、自然地完成流线的布置与切换。

6 结 论

本文提出一种基于沉浸式增强现实的流场可视化方法,在现实空间中通过流线展示流场变化特征。该方法采用服务器/客户端架构,通过将流线法中的流线计算过程放到服务器,解决头戴增强现实设备计算能力不足的问题。利用自动+手动的定位方法,改善传统自动定位方法定位不准确,导致可视化结果不准确的问题。利用基于Unity Mesh的流管绘制算法在游戏引擎中完成流线绘制。最后基于该方法实现了原型系统,为加快用户分析效率、提升用户体验,在该系统的基础上设计了基于用户凝视的流线布置方法与基于凝视与手势的种子点放置方法。利用一组由飞机模型仿真计算生成的流场数据对系统进行了验证,并对该系统的两种交互方式进行了用户评估实验。实验结果表明系统能够利用上述方法在物理空间中准确地完成流线绘制,反映流场变化情况。新的交互方法使用户能够通过在真实空间的移动从不同的视角观察流场的变化情况,并使用凝视与手势等自然交互方式快速、高效地改变流线在现实空间中的布置,有效地提高了用户的分析效率,改善了用户的使用体验。由于增强现实技术目前仍在发展之中,未来还可针对如下问题进行研究:(1)本文采取自动+手动的定位方法以确保流线能够准确地在物理空间中进行绘制,如长期使用该系统,将导致用户花费大量的时间进行定位校准。如能使用更加精准的自动定位方法,则能有效减少用户分析工作的准备时间。(2)目前增强现实设备的计算及渲染能力还不足以支撑大体量数据的可视化,可通过优化绘制算法或更新设备提高数据量上限。

参考文献

1

VanDam AForsberg A SLaidlaw D Het al. Immersive VR for scientific visualization: A progress report[J]. IEEE Computer Graphics Applications2000206): 26-52. [百度学术

2

Bryson S. Virtual reality in scientific visualization[J]. Communications of the ACM1996395): 62-71. [百度学术

3

Ware CMitchell P. Visualizing graphs in three dimensions[J]. ACM Transactions on Applied Perception200851): 1-15. [百度学术

4

Metamorphosis. Meta view[EB/OL]. (2019-08-07) [2019-08-30]. https://www.metavision.com. [百度学术

5

Microsoft. Microsoft Hololens | Mixed reality technology for business[EB/OL]. (2019-08-07) [2019-08-30]. https://www.microsoft.com/en-us/hololens. [百度学术

6

Belcher DBillinghurst MHayes Set al. Using augmented reality for visualizing complex graphs in three dimensions[C]//Proceedings of the Second IEEE and ACM International Symposium on Mixed and Augmented Reality. Washington, DC, USAIEEE Computer Society Press200384-93. [百度学术

7

Kalkofen DMendez ESchmalstieg D. Interactive focus and context visualization for augmented reality[C]//Proceedings of the 2007 6th IEEE and ACM International Symposium on Mixed and Augmented Reality. Washington, DC, USAIEEE Computer Society20071-10. [百度学术

8

Kalkofen DVeas EZollmann Set al. Adaptive ghosted views for augmented reality[C]// Proceedings of 2013 IEEE International Symposium on Mixed and Augmented Reality. Washington, DC, USAIEEE Computer Society20131-9. [百度学术

9

Schall GMendez ESchmalstieg D. Virtual redlining for civil engineering in real environments[C]//Proceedings of 2008 7th IEEE/ACM International Symposium on Mixed and Augmented Reality. Washington, DC, USAIEEE Computer Society200895-98. [百度学术

10

Barnum PSheikh YDatta Aet al. Dynamic seethroughs: Synthesizing hidden views of moving objects[C]//Proceedings of 2009 8th IEEE International Symposium on Mixed and Augmented Reality. Washington, DC, USAIEEE Computer Society2009111-114. [百度学术

11

Grasset RLanglotz TKalkofen Det al. Image-driven view management for augmented reality browsers[C]//Proceedings of 2012 IEEE International Symposium on Mixed and Augmented Reality. Washington, DC, USAIEEE Computer Society2012177-186. [百度学术

12

Mahfoud ELu A. Gaze-directed immersive visualization of scientific ensembles[C]//Proceedings of the 2016 ACM Companion on Interactive Surfaces and Spaces. New York, USAACM201677-82. [百度学术

13

Gasques Rodrigues DJain ARick S Ret al. Exploring mixed reality in specialized surgical environments[C]//Proceedings of the 2017 CHI Conference Extended Abstracts on Human Factors in Computing Systems. New York, USAACM20172591-2598. [百度学术

14

Pratt PIves MLawton Get al. Through the HoloLens looking glass: Augmented reality for extremity reconstruction surgery using 3D vascular models with perforating vessels[J]. Eur Radiol Exp201821): 2. [百度学术

15

Butscher SHubenschmid SMüller Jet al. Clusterstrends, and outliers[C]//Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems. New York, USAACM20181-12. [百度学术

16

Inoue AIkeda YYatabe Ket al. Visualization system for sound field using see-through head-mounted display[J]. Acoustical Science and Technology2019401): 1-11. [百度学术

17

Microsoft. Gestures-mixed reality | Microsoft docs[EB/OL]. (2019-08-27) [2019-09-16]. https://docs.microsoft.com/en-us/windows/mixed-reality/gestures. [百度学术

您是第位访问者
网站版权 © 南京航空航天大学学报
技术支持:北京勤云科技发展有限公司
请使用 Firefox、Chrome、IE10、IE11、360极速模式、搜狗极速模式、QQ极速模式等浏览器,其他浏览器不建议使用!