因为数字危险现已很高了,特别是关于弱势群体来说,安全危险在元宇宙中或许更遍及。 在元宇宙中,这种危险能够经过多种办法加重。 不必要的触摸或许会变得更具侵犯性。 虚拟钱银的鼓起是另一个应战。 寻找鼓励更好行为和奖赏活跃互动的办法或许需求成为更安全的数字未来的重要组成部分。 跟着围绕元宇宙的议论声越来越多,许多人担心在物理国际和元宇宙之间的边界继续模糊的环境中存在潜在的危险。
元宇宙(Metauniverse)是一个虚拟实际国际,其特点是三维、多感官体会(与当时的二维互联网比较——平面屏幕上的文字和图画) 依据一些专家的说法,今日最接近超国际的东西能够在游戏中看到,如《堡垒之夜》和《机器人体会》。 树立信赖生态系统处理在为元宇宙开发的技能中树立信赖生态系统的必要性是一个要害的考虑因素。 这些可信生态系统将构成软硬件开发周期中的算法、结构、框架、法规和方针的构建,以处理技能DNA中的安全、隐私、保密等不同要素。 如安在元宇宙中同享数据,需求愈加稳重的考虑,以保证隐私。 在超国际开发的隐私考虑中要考虑的第二个维度是消除会导致对实际国际不包容或恶意适应的成见。
参加元宇宙将构成对综合新式技能的利用。 这需求对环境中供给的维护进行全面的开箱安全验证,以避免违背机密性、完整性或其他方面的安全。 这些信赖生态系统将有助于发明一种稳定、包容和有目的的虚拟和沉溺式存在。 这些危险是如安在元宇宙中打开的?为了了解安全危险如安在元宇宙中变得愈加遍及,应该同享这个数字未来的一个要害结构:“元宇宙概念的中心是,实时访问和交互式虚拟3D环境将成为人类参加的变革性媒介。
假如它们变得有用,这些环境将取决于增强实际的广泛选用。 即便不是彻底沉溺式的,许多人或许会花更多时间混合线下和虚拟交互,转向混合实际(MR) 而隐私漏洞是或许危及交互和用户安全的办法。 例如,这能够采纳伪装成医师的形式来取得用于数字手术的手术室技能。 在一些现有的创立“元宇宙”的运用中,比如很多游戏渠道,你能够发现对潜在危险的很好了解。 明显,在这些环境中呈现了严重的安全应战。 例如,2019年克赖斯特彻奇清真寺枪击案中针对十分年幼儿童的娱乐活动在Roblox渠道上被多次发现,虽然该公司已做出巨大努力来阻止此类内容的潮流。 暴力极端主义和恐怖主义不是这个元宇宙的唯一危害。 最近,在脸书的Oculus Quest VR头显上,一名员工在玩Rec Room时经历了几分钟的种族主义长篇大论,无法辨认或陈述用户。
因为种种原因,摸索也是元宇宙中的一个问题。 咱们今日对数字危险的态度是什么?退一步,看看现在的数字环境。受伤的危险现已在增加。 依据WEProtect全球联盟的最新全球要挟评估陈述,每3个(34%)受访者中就有1个被要求在互联网上做一些他们童年时期感到不舒服的色情事情。 此外,从2019年到2020年,互联网调查基金会针对儿童的“自生成”性材料增加了77%。 为了全面处理超国际呈现时的安全问题,咱们需求与政府、产业界、学术界以及民间社会的其他人协作。 Meta全球安全负责人Antigone Davis依据Web Foundation上一年的一项全球民意调查,即便在新冠肺炎之前,也有超越一半的女孩和年轻女人经历过网络优待,该安排由互联网的发明者蒂姆·伯纳斯·李联合创立。 依据互联网基金会的一项民意调查,未经同意同享图画、视频或私家信息——被称为人肉搜索——是国际各地女孩和年轻女人最大的担忧。
四分之一的美国黑人和十分之一的西班牙裔美国人因为他们的种族或民族而面临网上轻视,比较之下,只有3%的美国白人如此。 危险现已很高,尤其是对弱势群体而言。 “以负责任的办法为元宇宙做出奉献需求在XR相关的安全方面进行研讨、协作和出资,”Meta的全球安全总监Antagone Davis解释道。 “例如,咱们正在出资操控措施,允许用户办理和陈述有问题的内容和行为,以及为沉溺式体会规划的安全工具。 但是咱们不能独自完结。
为了在超国际呈现时全面处理安全问题,咱们需求与政府、职业、学术界和公民社会中的其他人协作。 这很重要,因为依据咱们的大脑怎么解读沉溺式体会,元宇宙中的数字危险会感觉更实在;网络民权倡议安排(Cyber Civil Rights Initiative)主席玛丽·安妮·弗兰克斯(Mary Anne Franks)在她关于虚拟和增强实际的论文中指出,研讨表明,虚拟实际中的优待“比其他数字国际更具创伤性”。 在元宇宙中,危险是怎么增加的?在元宇宙中,当时的危险能够经过多种办法加重。 首要,依据这些数字空间的管理,在更具侵入性的多式联运环境中存在不必要的触摸危险。 今日,假如咱们不认识或不想与之互动的人企图经过音讯、结交或其他办法在Instagram、脸书等渠道上联系咱们,他们的联系能力首要局限于扩展基于文本的音讯、相片、表情符号等 然而,幻想一下,一个不受欢迎的人能够进入某人的虚拟空间,在超国际中与那个人“亲密触摸”。 假如没有强大的机制来实时陈述、防备和采纳举动,这或许会导致不必要的行为。 运用触觉技能,在元宇宙中造成损伤的危险会感觉更“实在”,因为许多公司都在测验运用触觉作为沉溺式实际中的附加感觉。
例如,许多安排正在开发的触觉手套旨在供给触觉反应,并为任何运动供给更准确和实在的感觉。 当然,这能够发明更好的实在感,增加虚拟环境中的衔接,但也或许被不良艺人滥用,其办法或许不被彻底了解。 在咱们当时的数字日子中,传达过快的有害内容也或许在元宇宙中转化为更多的图形、3D和听觉上的不想要的内容。因为其传输环境的多感官特性,这些内容感觉更具侵入性,并具有更大的影响。 虚拟钱银的鼓起往往是有害内容和在线活动泛滥的另一个应战。
例如,据说儿童正在运用他们的虚拟形象在虚拟脱衣舞沙龙供给大腿舞,以换取虚拟钱银“Robux” 依据ActiveFence的陈述,加密钱银是购买儿童性优待材料(CSAM)的人的热门选择,因为它们的分散操控和独立于金融机构也确保了匿名性。 鉴于数字钱银在元宇宙中的预期作用,跟着向Web 3.0的过渡,导致有害内容传达的财务鼓励和付出结构的规模和复杂性或许会增加。 科技和人权专家布里坦·海勒(Britan Heller)表明,追踪和保存生物特征数据存在额定的危险,为渠道供给“一种新质量的信息,这种信息与你的实在身份和刺激相结合——表明你或许独特别思考、喜欢和想要什么”。在她的论文“重新幻想实际:人权和沉溺技能”中,她发明了“生物统计学” 那么,咱们能做什么呢?许多公司、学术和民间社会专家以及监管机构正在倡导制定法令和新法规,以便将实际国际中不允许的事情在网络空间也定为违法。 例如,Bumble正在推进将网络快闪定为刑事违法。
他们的首席执行官惠特尼·沃尔夫德(Whitney Wolfherd)曾问立法者,“假如不雅观露出是街头违法,那为什么不在你的手机或电脑上?”人权律师Akhila Kolisetty表明,印度、加拿大、英国、巴基斯坦和德国是少量几个制止基于图画的性优待的国家,其间私家相片能够在未经同意的情况下同享。 许多国家缺少针对“deepfakes”等新式数字滥用形式的法令,在这种形式中,女人的面孔能够叠加在色情视频上,并在信息渠道上同享。
澳大利亚的电子安全专员为遭受此类优待的人供给支撑,但许多其他国家在此类机制和监管功能方面落后。 这相同适用于在网上维护儿童。 “咱们的社会说,咱们将在实际国际中维护儿童,但从数字上看,咱们没有看到相同的办法,”司法部儿童剥削和淫秽部分负责人史蒂文·j·格罗奇说。 更新适用于数字环境的法令将是办理元宇宙的要害组成部分。
Hoda Alkhzaimi,计算机工程研讨助理教授;纽约阿布扎比大学网络安全中心主任补充道,咱们在虚拟渠道上构建进犯机制的手法在不断发展。 这从来都不是一个固定的开发周期。 咱们应该注意怎么构建这种技能的软件和硬件要素,以包括安全考虑的本地要素,然后维护开发内容的完整性,在环境中创立用户交互以及所呈现的元宇宙的全体稳定性。 这儿不需求考虑任何因素,因为机密性、完整性、实在性、可访问性、隐私性和安全性都需求开发。
在过去,对虚拟设备的进犯是经过开源渠道构建的,例如Valve的OpenVR渠道。 咱们怎么确保这不会成为要害虚拟根底架构中重复呈现的事实?当即取得和EFF等民间社会安排呼吁政府和其他利益攸关方处理虚拟和增强实际布景下的人权问题。 另一个能够改进的首要领域是渠道选用的方针、执行和整体调整机制。
“VR和AR渠道需求为沉溺式环境供给特定的服务条款,基于这项技能怎么与咱们的大脑进行交互。 “咱们不能简单地将现有的社交媒体规则运用到元宇宙,”技能和人权专家海勒说 “这十分重要,”海勒着重,“因为除了内容,数字国际的渠道管理还必须标准行为。 目前,元宇宙中最常见的一种管理形式是被迫和惩罚性的节制。 这无法从一开端就避免损伤的产生,跟着坏行为者在怎么恪守方针方面变得越来越老练,他们通常能够避免结果。 寻找办法来鼓励更好的行为,并或许奖赏活跃的互动,或许需求成为更安全的数字未来的重要组成部分,特别是考虑到元宇宙中日益增加的安全危险。