我们准备好迎接即将到来的世界了吗?

我们正处在强大的新技术推动的文明变革的风口上——最显著的是在生物技术、机器人和专家人工智能领域。大规模就业的日子很快就要结束了。

尽管总有一些人会有工作——而且这些工作很可能非常令人满意——但在当前经济的整个领域,雇佣人类的意义将越来越小。受影响的人包括矿工和病理学家:“蓝领”和“白领”工人的横断面,他们的流离失所经历相似。

有些人认为这是对未来过于悲观的看法。他们指出,技术创新的悠久历史总是能创造出新的、更好的工作岗位——尽管经历了一段调整期。

我相信,这一次将有所不同。在过去,机器的进步只是人类创新的结果。但今天并非如此。机器现在能够以远远快于人类的速度学习新技能。他们正在发展自我监督、自我修复和自我完善的能力。因此,他们有潜在的能力扩展到新的利基市场。

这不一定是件坏事。机器每天24小时,每周7天,在人类无法容忍的环境中工作,可能会释放人类潜在的梦想,使人类摆脱苦差事、剥削和危险。

然而,社会从这些新技术中获益的能力关键取决于规划和管理公正有序的过渡。特别是,我们需要确保创新的收益和负担得到公平分配。否则,技术创新的所有好处可能会被那些感到被边缘化或被抛弃的人的抱怨所淹没。在这一点上,历史为那些愿意学习的人提供了一些令人心寒的教训——尤其是当那些流离失所的人包括中产阶级的代表时。

2019冠状病毒病让我们尝到了不公正和无序过渡的滋味。在“封锁”的最初几天——在政府开始实施诸如JobKeeper补贴等稳定政策设置之前——我们都目睹了失业者队伍的迅速壮大,并怀疑自己是否可能是下一个。

随着眼下的危机开始缓解,澳大利亚政府开始考虑如何让一切恢复正常。他们的论调集中在“以企业为主导”的回归繁荣,即每个人都重返工作岗位,经济增长为偿还大流行期间积累的债务提供资金。

试图重现过去,往好了说是错失良机,往坏了说是愚蠢之举。毕竟,如果一个完全不同的未来就在几年后,为什么要重新创造过去的场景呢?

在这种情况下,让我们利用COVID-19造成的破坏来激发更深层次的反思,为一个与大流行前截然不同的未来重组我们的社会。让我们向那些意义和身份与工作无关的早期社会学习。

在一个基本商品和服务都由机器提供的世界里,我们需要管理什么样的社会、政治和经济安排?现在是否应该考虑为所有公民引入全民基本收入(UBI) ?如果是的话,怎么支付?

如果税收不能从雇员的工资中获得,到哪里去找呢?政府应该对生产资料征税吗?他们是否应该要求企业为其为创造私人利润而消耗的社会和自然资本(公地)的使用付费?

这些只是我们需要探索的几个最明显的问题。我不打算在这里回答这些问题,而是要引发一场比其他情况下可能发生的更深、更广泛的辩论。

旧的确定性正在被新的可能性所取代。这是值得欢迎的。然而,我认为我们只是在考虑未来政策的“冰山一角”。COVID-19让我们瞥见了未来的世界。我们不要看向别处。

世界杯2022淘汰赛对阵伦理中心在评估文化健康和建设领导能力方面处于世界领先地位,以便在复杂情况下作出良好的伦理决定。如需安排保密谈话,请与团队联系consulting@www.01128166665.com。访问我们的咨询页面了解更多。

加入对话

同谋线可以接受吗?


人的生命的价值

2019冠状病毒病大流行期间最持久的紧张关系之一是,全国“封锁”是否弊大于利。

在最近一期ABC电视台的Q+ a节目中,这个问题被直接提上了议程。最重要的争论点来自新南威尔士大学经济学家、副教授吉吉·福斯特的评论。很多公众对福斯特的立场持批评态度,部分原因是人们错误地认为她在主张“经济”应该胜过“同情”。

吉吉·福斯特不是这么说的。相反,她试图让人们注意到这样一个事实:“封锁”有可能对人们造成和COVID-19本身一样多的伤害(包括对他们生命的威胁)。

在她的案例中,福斯特博士引用了质量调整生命年(QALYs)的概念。正如她所指出的,这一概念已经被卫生经济学家使用了几十年——最经常的是试图确定如何最有效地分配有限的卫生保健资金。从本质上说,QALY的预期好处在于,它允许在可比较的基础上评估各种选择——因为所有人类生活都是根据一个共同的尺度来衡量的。

从本质上说,QALY的预期好处在于,它允许在可比较的基础上评估各种选择——因为所有人类生活都是根据一个共同的尺度来衡量的。

所以,吉吉·福斯特并不缺乏同情心。相反,我认为她想推动一场基于理性评估的辩论,这种理性评估基于计算,而不是评估。在这样做的同时,她提请人们注意到,与老年人或体弱者(如果感染这种冠状病毒,死亡风险最高的人群)相比,弱势群体承担的成本(包括重大的精神健康负担)。

我认为吉吉·福斯特的观点有两个主要问题。首先,我认为这是基于一个可以理解的——但值得怀疑的——假设,即她思考这些问题的方式要么是唯一的,要么是最好的方法。其次,我认为她没有发现她想权衡的两个选择之间存在基本的不对称。我将在下面概述这两种反对意见。

在引用qaly的概念时,福斯特的论点始于这样一个命题:为了制定政策决策,可以剥夺人的生命的个性,取而代之的是用标准单位来定义。反过来,这允许这些单位成为计算对象。尽管吉吉·福斯特没有明确说过,但我相当确定她的出发点是,伦理问题应该根据结果来决定,最好的(最道德的)结果是为最多的人产生最大的利益(QALYs)。

很多人会同意这种方法——这是边沁、米尔斯和彼得·辛格等人提倡的功利主义的一个有限例子。然而,有很大一部分的Q+A观众认为这种方法在很多层面上都是非常不道德的。首先,他们会拒绝他们的年迈或虚弱的母亲、父亲等应被视为生活中一个无差别单位的表现。第二,他们会因为这个想法而感到不安任何人类应该被简化为一个计算单位。

他们会被这个想法吓到任何人类应该被简化为一个计算单位。

他们可能会认为,这样做违反了每个人都拥有内在尊严的伦理戒律。吉吉·福斯特的论点完全符合一种思维传统(计算理性),这种传统源于16世纪晚期哲学的发展th和17th世纪。这是一种与启蒙运动紧密相关的思维方式,启蒙运动试图通过理性的视角来理解存在的意义,并试图通过对所有变量的理解和控制来终结不确定性。这种趋势在“人力资源”等术语中得到了印证。

尽管很少有人会明确表达对这一点的担忧,但对核心思想的拒绝越来越多——尤其是因为它的潜在逻辑与机器(和其他系统)的发展紧密相关,人们担心机器将屈从于人类,而不是服务于人类。这是我和马修·比尔德博士在我们的出版物《技术设计》中提到的一个更广泛的领域,设计伦理:优秀技术的原则

福斯特博士立场的第二个问题是,他没有认识到COVID-19对生命构成的风险与“封锁”带来的风险之间的根本不对称。就前者而言:没有治愈方法,没有疫苗,我们甚至不知道那些幸免于感染的人是否有持久的免疫力。

我们还不知道为什么这种疾病杀死的男性比女性多,我们不知道它的突变速度——或者它跨越物种的能力,等等。换句话说,只有一种方法可以保护生命,防止卫生系统因感染病例而不堪重负,从而导致本来可以避免的死亡,那就是“封锁”。

只有一种方法可以保护生命,防止卫生系统因感染病例而不堪重负,从而导致本来可以避免的死亡,那就是“封锁”。

另一方面,我们有大量的选择,可以防止或尽量减少封锁造成的伤害。例如,在实施“封锁”之前,政府本可以预期到心理健康风险的增加,从而对其预防和治疗进行大规模投资。

政府有政策工具来确保代沟间的公平,确保"封锁"的负担不会不成比例地落在年轻人身上,而老年人则不成比例地享受到好处。

政府可以确保了澳大利亚的每个人都能得到基本收入支持——只要承认澳大利亚的每个人都必须在控制疾病方面发挥作用这一事实。所有人都应该承担负担,只有一部分人得到救济,即使他们的需要和其他人一样大,这是公正的吗?

当然,各国政府是否会采取解决这些问题的措施是另一回事。这里的重点是,控制COVID-19的其他选项在某种程度上是可用的。这就是上面提到的基本不对称。

我认为吉吉·福斯特提请人们注意“封锁”对生命等造成的潜在危害是正确的。然而,她错误地没有探索可以采取的多种选择,以防止她和许多其他人预见到的伤害。相反,她直接谈到了她关于qaly的论点,并让人们形成了这样的印象:为了更大的利益,老年人和体弱多病的人可能会被“牺牲”。

你可以联络道德操守中心世界杯2022淘汰赛对阵关于本文中讨论的任何问题。我们为个人提供免费咨询服务Ethi-call专业的收费服务咨询、领导力和发展服务;作为一个非盈利的慈善机构我们非常依赖捐款来继续我们的工作可以通过我们的网站吗谢谢你!

加入对话

一条生命值多少钱?


不管你是否准备好了——未来即将到来

我们生活在人类历史上一个特殊的时代。在历史时间刻度的一眨眼间,我们的物种现在拥有了探索宇宙的技能,绘制和修改人类基因,并发展出可能远远超过他们的创造者的智能形式。

事实上,考虑到以前不可想象的变化的速度、不可预测性和绝对规模,用复数而不是单数来谈论未来实际上更好:“未来”正在到来。

随着基因工程、人工智能和神经技术的融合,完全独特的挑战出现了,可能会考验我们对人类身份的假设,以及是什么将我们作为一个物种联系在一起。2022世界杯南美区预选赛积分在一个对我们未来存在的基石进行扩充、植入、增强和编辑的时代,人类的经验意味着什么?如果我们不仅黑进了人体,还黑进了人类的思想,会发生什么?

即将到来的可能的未来将以如此之快的速度到来,那些没有做好准备的人将发现自己在努力了解如何驾驭和应对一个不同于我们目前所知的世界。那些投资于探索未来的人,将很好地主动塑造他们当前和未来的状态,这样他们就可以跨越复杂性,经受挑战,并最大限度地利用未来带来的机会。

世界杯2022淘汰赛对阵伦理中心的未来国家框架是一个为变革管理、文化协调和员工参与量身定制的、面向未来的平台。它借鉴了未来的方法,包括趋势映射和未来场景转换,以及许多设计思维和创新方法。Future State的与众不同之处在于,它将伦理作为战略和组织评估和设计的基石。道德规范支撑着一个组织的方方面面。一个组织的宗旨、价值观和原则为其文化奠定了基础,为领导层提供了指导,并为执行战略设定了所需的指南针。

我们居住的未来世界将建立在我们当下所做的选择之上。然而,由于我们每天做出的众多决定的纯粹复杂性,未来既不可预测,又很紧急。目前的法律、程序、方法和当前的思维方式在未来可能不会很好地为我们服务,也不会对我们想要创造的未来做出最好的贡献。通过以伦理为中心的设计过程来预见未来的挑战,未来国家框架确保组织及其文化是未来的。

未来国家框架已经支持许多组织在一个利润正在迅速和根本地重新定义的世界中重新设想它们的目标和它们独特的经济和社会角色。股东的需求正在超越财务回报,而社会对公司角色的期望也在急剧转向未来。

该方法通过绘制和定位他们想要的未来状态,并开发实现它的路径,帮助组织制定一个转型过程。它被设计用来支持和引导两个组织,一个是面对即将到来的燃烧平台,另一个是那些想要成为未来的领导者的组织,给他们有目的的行动的洞察力,适合未来可能存在的许多可能性。

如果您有兴趣与道德操守中心的顾问团队更深入地讨论本文提出的任何主题,请世界杯2022淘汰赛对阵进行查询通过我们的网站。

加入对话

商业的未来是什么?


年轻人正在崛起。我们会听吗?

当我们决定把市政厅作为2020年危险想法节(FODI)的举办地时,我的第一反应是考虑一个合唱团。这个场所非常适合这样做,唱诗班的形象——一群统一的声音——给我的印象是定义我们这个时代的激进主义的极好象征。

我去年参加了墨尔本的Spinifex Gum,马上就知道这是今年音乐节的合唱作品。音乐和声音都非常美妙,但最打动我的是玛丽亚唱诗班年轻女性的真实。由Felix Riebel和Lyn Gardner为Marliya合唱团创造的歌曲周期通过愤怒,悲伤,愤慨和希望踏上了真正的情感之旅。

作为一个更大现象的缩影,Marliya的作品向我们展示了在这些统一声音的群体中,年轻人的力量是显而易见的。

每个城市、郊区和学校都有他们自己的格里塔·瑟恩伯格:年轻人敏锐地意识到我们现在生活的危险现实,他们在面对未来时知道,如果不立即和重大的改变,他们未来的自己将面临难以置信的困难。

2012年,FODI与希夫·马利克(Shiv Malik)和埃德·豪克(Ed Howker)就即将到来的代际战争举行了一次会议,看来这场战争已经真正开始了。几年前,挑衅主要是围绕经济实力展开的,但现在风险迅速上升。现在,能源、环境、生活质量和地球的未来都摆在了桌面上。它的升级速度比我们在2012年的演讲者所预测的要快。

十年来,FODI舞台一直是讨论令人不安的真相的场所。想想年轻人将继承的未来世界和体系,没有比这更让人不舒服的了。

我们对一个我们不会参与的世界有什么价值?

我们和Marliya Choir一起的演讲者将从他们的角度解决重大问题:心理健康、性别、气候变化、土著监禁和治理。

第一民族青年活动家杜鹃Hoosan,学校为气候罢工黛西杰弗瑞, TEDx演讲者奥黛丽Mason-Hyde心理健康倡导者Seethal Bency是一名记者迪伦仓库保管员把他们的声音加入到要求我们关注的澳大利亚年轻人的唱诗班中。

他们的年龄从12岁到21岁不等,能在这么大的论坛上发言的勇气值得称赞和支持。

与FODI的进一步扭转,您可以选择您希望为这个会议支付多少钱。你可以选择你认为倾听我们年轻人的声音有多重要。与我们的权威学者相比,你认为年轻人的观点有什么价值?

不可原谅的是一个新的委员会,结合了我看过的令人难以置信的Spinifex Gum表演的音乐,来自合唱团和一些最大胆的澳大利亚年轻领导人的新歌,所有人都聚集在一起分享他们对未来的希望和恐惧。

这是邀请你来聆听。考虑一下你们对这些年轻领袖的未来是否有相同的愿景。不可原谅的让我们有机会看看年轻人和老年人之间的这场战争到底有什么利害关系。

他们不是未来的领袖,这些年轻人正在努力成为现在的领袖。

门票不可原谅的在4月4日星期六的危险思想节上现在特价。

加入对话

你认为听到我们的青春有什么价值?


这就是气候灾难之后的后果

我真的不能在这件事上撒谎。和许多来自澳大利亚的气候学界人士一样,我预计气候变化的影响会晚一些才会出现。除了“不是现在,不是明年,而是在那之后的某个时候”,我没有对“以后”下太多定义。

相反,我惊恐地看着澳大利亚燃起熊熊大火。随着最严重的火灾季节过去,一个简单的问题浮出了水面。是什么让这些森林大火如此严重?

气象局证实,几十年来,天气状况一直倾向于加剧火灾。衡量这一指标的“森林火灾危险指数”(Forest Fire Danger Index)达到了记录在澳大利亚的很多地方

地球系统和气候变化中心是明确的:“近几十年来,人为造成的气候变化已经导致澳大利亚许多地区的森林火灾更加危险的天气条件……这些趋势很可能在未来增加。”

森林大火已经存在了几个世纪,但人类燃烧化石燃料催化了森林大火恶化它。

由于离开了澳大利亚,我没有感受到危机对身体的影响。不是烟雾缭绕的空气,不是深褐色的天空,也不是干燥的地面。

但我永远离不开互联网,在那里表达的情感每天都在我的信息流中。规模之大让人震惊科学fictionness这一切。能自己产生闪电的火柱?这不可能是真的。

全世界为人类生命的丧失、美丽动物和生态系统的丧失以及家庭和企业受到的永久性破坏而悲痛。

悲痛很快转化为行动。筹集资金的人很多,而且很有效。喜剧演员塞莱斯特·巴伯最初筹集了3万澳元,令人印象深刻,但最终以5100万美元左右的收入结束。艾琳·莱利'找个床该项目不知疲倦地帮助流离失所的澳大利亚人找到睡觉的地方。澳大利亚人低下头开始工作。

能成为其中的一员真是令人鼓舞。但这项工作并没有因为资金而停止。对火灾排放的初步估计令人深感不安。“我们的初步估计表明,到目前为止,这次火灾季节的二氧化碳排放量与澳大利亚所有人为排放的二氧化碳排放量一样高,甚至更高。因此,实际上,它们至少是澳大利亚今年碳足迹的两倍。”研究科学家佩普·卡纳德尔说告诉未来的地球。

有一些不确定性被大火摧毁的森林是否会重新生长,并将释放的碳吸回地球。但很有可能,随着火灾季节的恶化,地面和天空之间自然碳流动的平衡将开始向坏的方向倾斜。

就像烟雾会产生自己的“干闪电”,引发新的火灾一样,森林大火的排放有一种深刻的周期性恐怖。

它利用了一种比眼前的威胁更广泛、更深的恐惧;当最后的火焰熄灭时,有些东西还在徘徊。我们开始感到地球的物理系统没有反应。我们开始担心,如果我们停止排放,这些“正反馈”(一个经典的科学错误称呼)意味着无论我们采取什么行动,我们都注定要失败。

当我们坐在奥斯陆的一家咖啡店里时,我对一位国际新闻记者说:“放弃的流行比气候科学家的预测更让我害怕。”当时正下着倾盆大雨,天气暖和得足以穿一层衣服和一件雨衣——难以置信奇怪的在一月的时候。

她似乎很惊讶。“你害怕吗?”她困惑地问道。是的。如果我们放弃,排放将比不这样做的情况下更高,因此我们将更多地暴露在地球开始自身变暖的不确定性和风险中。对我来说,这简直让人麻痹。

它比2010年代否认气候变化的做法更可怕,因为它对大众的吸引力要大得多。这和否认主义一样是伪科学。“气候变化不是我们坠落的悬崖,而是我们滑下的斜坡”,写了气候科学家凯特·马威(Kate Marvel)在2018年底发表的讲话。

作为对乔纳森·弗兰岑的回应可怕的他在2019年的一篇文章中敦促我们放弃,漫威解释为什么是“积极反馈”更多的努力减排的理由,不是.“正是因为我们理解了命运的潜在驱动因素,才使得它从一个既定的结论变成了一种选择。”

一个选择。正如火灾的直接恐怖转化为大量的、不可阻挡的筹款一样,人类栖息地的这种全球变化的长期影响可能促使人们采取积极的、热情的行动,向为数不多的公司和政府施加更大的压力,这些公司和政府正在加剧我们日益增加的危险。

地球对大气变暖的反应方式有很多固有的不确定性。我非常肯定地知道,如果我们陷入瘫痪,放弃改变,那么我们面临的风险将大大增加。

我们可以将那些深红月的恐怖转化为改变未来的巨大努力。只有当我们坚持认为事情糟糕到我们应该放弃的可怕想法时,我们最可怕的恐惧才会成为现实。

加入对话

行动是绝望的解药吗?


关于森林大火的一个迫切的问题

在当前森林大火季节的灾难最严重的时候,人们想知道为什么我们国家的大部分地区被罕见的规模和强度的火灾所破坏。

作为回答,人们把责任归咎于日益严重的气候变化的影响、土地管理的失败、迅速增长的人口、房屋的位置、纵火犯的恶劣行为……

然而,有一件事却没有上榜,那就是道德失败。

我怀疑,很少有人意识到这场火灾是道德沦丧的例子。然而,他们就是这样。助长火势的不仅仅是高温、少雨和过度干燥的灌木丛。它们也是不加思考的习俗和实践的产物,也是核心价值和原则转变为“影子形式”的产物。

森林大火是自然现象。然而,它们的规模和频率是由人类的决定决定的。我们知道这是正确的,通过证据,土著澳大利亚人如何作出不同的决定,并在这样做,产生不同的影响。

我们的原住民知道如何控制火,并通过谨慎使用火来帮助国家繁荣昌盛。他们已经证明(如果我们注意到的话),今年夏天所发生的破坏并非不可避免。我们总是可以做出不同的选择,而这些选择反过来又会导致不同的结果。

这就需要道德规范了。它是哲学的一个分支,研究我们的决定的性质和性质;决定塑造世界。事实上,受自然法则约束,这个星球上最强大的力量是人类的选择。伦理学的任务是通过挑战那些往往被毫无疑问地接受的规范来帮助人们做出更好的选择。

这个过程要求人们回归到最基本的东西——评估事情的事实,挑战假设,在核心价值观和原则的指导下做出有意识的决定。最重要的是,道德要求人们为自己的决定和随之而来的一切承担责任。

这场灾难并非不可避免。它是我们选择的产物。

例如,各种派别的政府都乐于告诉我们,他们没有比保护我们安全更大的义务。令人难以想象的是,我们的政客会无视恐怖袭击可能迫在眉睫的情报。他们不会等到房间里的人达成一致意见。相反,我们的政府将接受那些提供情报的人的共识,并采取预防措施。

那么,为什么我们的政治领导人无视消防局长、国防分析师和气候科学家的警告呢?为什么他们把社区暴露在可避免的森林火灾风险中?为什么他们拿我们的未来玩俄罗斯轮盘赌?

这只能是社会“道德基础设施”的某些部分被打破了。

在火灾事件中,我们本可以做出更好的决定。更好的决策——尤其是在全球排放、气候变化、我们如何以及在哪里建造家园等挑战方面——将创造一个更美好的世界,避免可预见的苦难和破坏。这是道德的礼物之一。

从这个角度理解,道德没有什么是无形的。它渗透到我们的日常生活中。它表现在我们能感觉到的现象中。

因此,如果有人在寻找道德失败的物理表现——呼吸充满烟雾的空气,看看血红色的天空,感受来自热墙的拍打,听到大火风暴的咆哮。

大火会平息的。雨会来的。季节将会转变。然而,我们仍然要为未来做决定。我们的领导人是否有道德勇气将公众利益置于政治命运之前?我们会做出合乎道德的选择,为一个更美好的世界作出决定吗?

我们道德中心的任务就是帮助社会做到这一世界杯2022淘汰赛对阵点。

加入对话

我们都要对火灾负责吗?


要解决深度造假问题,我们必须治本,而不是治标

这篇文章是为……写的最早由《卫报》发表.转载已获授权。

一旦技术被发布,就像放牧猫一样。为什么我们要继续让科技行业处理自己的烂摊子呢?

我们还没有看到2020年美国大选的民主党候选人出现明确的领跑者。但我对另一场竞赛感兴趣——看哪个流行词将成为政治报道、热门报道和选举带来的一般政治反思的关键问题的竞赛。2016年是“假新闻”。“Deepfake”是2020年大选的主要候选人之一。

本周,美国众议院情报委员会问道脸谱网,推特和谷歌,他们计划在2020年大选中打击深度造假。这是一个很好的问题。只要稍加努力,深度造假就可以具有足够的说服力和误导性,让假新闻看起来像儿戏。

Deepfake是“深度学习”(deep learning)和“fake”(伪造)两个词的合成词,指的是一种人工智能软件,它可以将数字合成的人脸叠加到一个人的现有视频(有时是音频)上。

这个词最初是在Motherboard报道一名Reddit用户使用人工智能将电影明星的脸叠加到现有的色情视频中,创造出了由艾玛·沃特森、盖尔·加朵、斯嘉丽·约翰逊和其他一系列女明星主演的色情视频(逼真程度不一)。

然而,也有一系列的政治可能性。电影制作人乔丹·皮尔在一部电影中强调了一些潜在的有害因素Buzzfeed制作的诡异视频在这篇文章中,他真的把自己的话放到了巴拉克•奥巴马的嘴里。不管满意与否,听到奥巴马称美国总统特朗普为“彻头彻尾的蠢货”令人担忧,因为他从未说过这话。

与深度造假可能被滥用同样令人担忧的是,科技平台正在努力应对它们。首先,他们的内容审核问题是有据可查的。最近,一项南希·佩洛西的篡改视频特朗普在推特上发布了这则视频。Twitter没有删除这段视频,YouTube删除了,Facebook则把它从新闻推送中删除了。

其次,他们已经尝试过抑制深度造假,但以失败告终。在对未经双方同意的色情深度造假的快速回应中,推特、Gfycat、Pornhub等平台迅速采取行动删除这些视频,并开发技术帮助它们删除视频。

然而,一旦技术发布,就像放牧猫一样。深度造假是一场移动的盛宴,一旦版主找到了检测它们的方法,人们就会找到变通办法。

然而,尽管如何应对深度造假存在一些重要问题,但我们把它与更广泛的问题隔离开来,只寻求技术解决方案是错误的。我们在假新闻上犯了同样的错误,主要的罪犯被视为技术平台,而不是创造了一个谎言可以泛滥的环境的政客和记者。

对深度造假的愤怒是关于技术伦理的更大的社会讨论的一个缩影。很明显,这个软件不应该被开发出来,它已经——并且还将继续——带来了不成比例的弊大于利。但我们没有吸取教训。最近,一款名为“DeepNude”的应用程序的开发者取消了发布计划,担心“人们误用它的可能性太高”。这款应用程序的设计初衷是根据一张穿着衣服的照片,真实地描绘出一个女人的裸体样子。

这款应用的合法用途是什么,我不知道,但它的反应揭示了它的可预测性。报道引发了一定程度的公众抗议,这时技术开发人员突然意识到他们的做法是错误的。他们是事后诸觉:在事情发生后感觉糟糕,而不是积极地寻找促进共同利益、公平对待人们并将潜在伤害最小化的方法。到现在为止,我们应该知道得更多,期望更多。

“科技是一种看待世界的方式。这是一种承诺——我们可以把世界置于我们的控制之下,让它屈从于我们的意志。”

那么,我们为什么还要继续让科技行业处理自己的烂摊子呢?部分原因是它很难,但也因为我们仍然沉迷于技术的承诺,即使我们开始批评它。科技是一种看待世界的方式。这是一种承诺——我们可以把世界置于我们的控制之下,让它屈从于我们的意志。深度造假让我们有能力操纵一个人的形象。我们可以让他们随心所欲地说话和行动,用一个现成的(虽然薄弱)道德辩护:“在制造这种深度造假的过程中,没有人受到伤害。”

但在要求对深度造假进行技术修复的过程中,我们助长了把我们带到这里的同一种逻辑。想要解决硅谷的问题?有一个应用程序可以做到这一点!也许,这个应用最终会起作用。但我们还是治标不治本

围绕技术领域的伦理和监管的讨论需要扩大到包括更多存在主义问题。我们应该如何回应技术的承诺?我们真的希望世界完全在我们的控制之下吗?这样做的道德成本是什么?把每一个未被满足的愿望都看作可以用应用程序解决的东西,这意味着什么?

是的,我们需要考虑那些会利用技术来操纵、伤害和滥用的坏人。我们需要考虑一个显而易见的事实:如果一项技术存在,一定会有人用它来优化他们的性高潮。但我们也需要考虑,当我们解决技术问题的唯一途径是技术本身时,这意味着什么。

大型科技公司肩负着巨大的道德和政治责任,他们被要求履行这些责任是件好事。全行业对基本法律标准、重要监管和科技伦理将对解决糟糕科技设计的直接危害大有帮助。但它不会让我们摆脱我们似乎困在其中的技术范式。为此,我们不仅需要技术开发人员阅读一些道德哲学。我们需要我们的政治家和公民也这样做。

“目前,我们在这个问题的边缘徘徊,随着新技术的出现,我们在玩打地鼠游戏。”

目前,我们在这个问题的边缘徘徊,随着新技术的出现,我们在玩打地鼠游戏。我们认为技术设计和开发是不可避免的。因此,我们的目标是将风险降至最低,而不是更深入地审视技术所蕴含的价值观、目标和道德承诺。除了问我们如何阻止深度造假,我们还需要问为什么有人认为这是一个好主意。目前还没有这样的应用程序。

加入对话

真相重要吗?


科技行业伦理设计的新规则

本文撰写于,并首次发表于Atlassian

因为科技设计是一种人类活动,没有道德就没有人类行为。

过去几年我最喜欢的表情包之一是这很好.这是一幅画,一只狗坐在着火的大楼里,端着一杯咖啡。“这很好,”狗宣布。“我能接受发生的一切。一切都会好起来的。”然后狗喝了一口咖啡,融化在火里。

在道德和技术领域工作,我听到很多“这很好。”科技行业已经建立了(而且正在建立)排除弱势用户的流程和系统,通过设计影响用户的“轻推”(nudge),这些用户最终做出了他们可能不应该做出的隐私让步。或者,通过将先入为主的是非观念植入将影响数百万人生活的技术中进行设计。

但许多人并不承认他们可能存在道德问题。

资料来源:KC Green。https://topatoco.com/collections/this-is-fine

这在一定程度上是因为,像狗一样,他们不承认火最终可能会把他们烧死。很多在科技行业工作的人愿意承认别人有道德问题,但他们不太可能相信自己有道德问题。

我明白了。很多时候,人们构建的产品看起来无伤大雅、有趣或实用。没有任何东西能让我们在道德上多看一眼。

当然,问题是,仅仅因为你不能识别出一个问题并不意味着你不会在漫画的第六帧中融化而死。在你所建造的东西中,你需要解决一些问题,因为科技设计是一种人类活动,没有道德就没有人类行为。

你的产品可能已经有道德问题了

说白了:如果你认为在设计过程中不需要考虑伦理问题,因为你的产品不会产生任何伦理问题,那你就错过了一些东西。也许你的产品仍然很好,但你不能确定,除非你花时间从道德的角度考虑你的产品和利益相关者。

从这个角度来看:如果你不能确保你的设计中没有漏洞或偏见,那么你就不是最好的设计师。道德也不例外——让人们(和他们的产品)尽可能做到最好。

以Pokémon Go为例。这是一款很棒的小手机游戏,让用户有机会在现实世界中感受到Pokémon教练的感觉。这是一个商业成功的故事,在2018年底记录了30亿美元的利润。但这正是大多数人认为没有任何道德问题的那种看起来无伤大雅的应用程序。

但它确实如此。它分散了司机的注意力,把用户带到危险的地方,希望能感染Pokémon,破坏了公共基础设施,没有征求游戏中包含的网站的同意,无意中排除了农村社区(许多是少数族裔居住),并在令人不快的地方释放Pokémon(例如,在华盛顿大屠杀博物馆释放毒气Pokémon)。

事实上,这是一份相当多的清单。

这很遗憾,因为这一切都意味着《Pokemon Go》并不是最好的游戏。而作为设计师,这就是我们的目标——创造出伟大的东西。但如果一个东西不是好的,它就不可能是伟大的,这就是为什么设计师需要考虑道德问题。

以下是你可以在设计过程中融入的一些内容,以确保你不会在最终发行时被烧死。

1.从道德的死前开始

当产品出现问题时,我们知道进行事后分析以确保我们不会重复同样的错误是很重要的。在伦理学中,死后反思是常有的事。一个产品发布了,一桩丑闻爆发了,伦理学家们最后成了新闻上讨论哪里出了问题的主角。

与事后分析一样有用的是,它们也可以用来洗刷疏忽的行为。当出现问题时,发言人说:“我们将密切关注发生了什么,以确保此类事件不会再次发生。”我想问的是,“你们为什么不在推出之前就这么做呢?”这就是道德premortem所做的事。

和你的团队坐下来,讨论一下什么会让这个产品成为道德上的失败。然后回溯到可能失败的根本原因。你如何降低这种风险?你能降低足够的风险来证明项目的合理性吗?你们的制度、流程和团队是否建立得能够识别和处理道德问题?

技术伦理学家Shannon Vallor提供了一个方便的列表premortem问题

  • 这个项目怎么会因为道德原因而失败?
  • 我们的道德失败/灾难最有可能的综合原因是什么?
  • 什么样的盲点会把我们带入其中?
  • 为什么我们不采取行动?
  • 我们为什么/如何选择错误的行动?

我们可以采用什么样的系统/流程/检查/故障保护措施来降低故障风险?

2.问死星的问题

这本书侠盗一号:催化剂讲述了银河帝国如何成功建造死星的故事。这个策略很简单:找来许多主题专家,让他们在小项目中各自为政。由于没有团队知道其他团队在做什么,只有少数经理能够理解实际构建的是什么。

小团队,在一个大得多的项目中扮演有限的角色,与其他团队的需求、目标、目的或活动的联系有限。2022世界杯南美区预选赛积分听起来是不是很熟悉?竖井是道德疏忽的一个主要来源。工作量、动机和兴趣仅限于其特定贡献的团队很少能确定其贡献的下游效应,或者当其与其他工作结合时可能发生的情况。

虽然你不太可能秘密为西斯大帝工作,但还是值得一问:

  • 大局是怎样的?我实际上在帮助建立什么?
  • 我的工作做出了什么贡献?我可能需要知道有什么道德风险吗?
  • 这个产品有双重用途的风险吗?
  • 如果有风险,考虑到潜在的好处,这些风险值得吗?

3.组成红队

任何在安全领域工作过的人都知道,要知道一个产品是否安全,最好的方法之一就是让别人尝试破坏它。我们可以用类似的概念来描述伦理。一旦我们做出了自己认为很棒的东西,就请别人去证明它并不好。

红队应该问

  • 这里的道德压力点是什么?
  • 你是否在相互竞争的价值观/理想之间做过权衡?如果有,你的制作方法正确吗?
  • 如果我们扩大潜在用户的范围,包括一些你可能没有考虑过的人,会发生什么?
  • 这个项目我们是否应该接受?(如果你知道你在建造死星,你就不太可能把它做成合乎道德的产品。这是大规模杀伤性武器。)
  • 你的解决方案是唯一的吗?它是最好的吗?

4.决定你的产品要表达什么

你见过蹒跚学步的孩子发现新玩具吗?他们的第一反应是测试自己的能力极限。他们没有问设计师的意图是什么在美国,他们在测试物品如何满足他们的需求,不管他们的需求是什么。在这种情况下,他们咀嚼它、扔它、用它画画、把它推下滑梯……一个蹒跚学步的孩子无法理解设计师的意图。他们唯一的提示是内置在产品本身。

我们很容易认为我们的产品只会以我们希望的方式使用。但实际上,技术设计和使用更像是一种双向对话,而不是一组指令。鉴于此,值得一问的是:如果用户没有关于如何使用该产品的说明,他们会单纯从设计中推断出什么?

例如,我们可能会从社交媒体平台上一些隐私设置的隐藏特性中推断出我们不应该调整我们的隐私设置。社交平台可能不这么认为,但它们的设计讲述了一个不同的故事。想象一下,如果你让你的产品自己说话,它会对用户说什么。

这一点非常重要,因为你的设计能够传达一些信息。所有的技术都充满了功能支持——微妙的提示,邀请用户以某种方式参与其中,而不是其他方式。无论你是否有意,它们都在那里,但如果你不知道你的设计提供了什么,你就不可能知道用户可能会接收到什么信息。

设计团队应该问

  • 从设计中可以推断出产品可以/应该如何使用?
  • 你希望人们如何使用它?
  • 你怎么不希望人们使用这个?
  • 您的设计选择和功能支持是否反映了这些期望?
  • 你是否不必要地阻止了该技术的其他合法使用?

5.别忘了展示你的作品

我在高中数学课上记得的(为数不多的)一件事是:你得到正确答案得一分,但表现出引导你到达那里的努力得三分。

这对学习也很重要:如果你没有得到正确的答案,能够审视你的过程是至关重要的(这就是事后分析)。

对于伦理设计来说,展示你作品的过程就是要愿意公开捍卫你所做的伦理决定。这是一个实用的版本阳光测试——你问自己,如果全世界都在看,你是否还会做你正在做的事,以此来测试自己的意图。

问问你自己(和你的团队)

  • 这个产品有什么限制吗?
  • 你做了哪些权衡(例如在隐私和用户定制之间)?
  • 你为什么要开发这个产品(你在解决什么问题?)
  • 这个产品有被滥用的风险吗?如果有,你做了什么来降低这些风险?
  • 是否有任何用户在使用此产品时会遇到困难(例如,残疾人)?如果是这样,为什么你不能解决这个问题,为什么它值得发布产品,因为它不是普遍可用的?
  • 好的和坏的影响发生的可能性有多大?

道德是一种投资

我经常惊讶于机构愿意在文化倡议、幸福日等活动上投入多少金钱、时间和人力,但却没有在道德规范上花过一分钱。人们普遍认为,如果你是一个好人,那么你就会建立起道德的东西,但压倒性的证据证明事实并非如此。你需要投资学习道德,围绕道德建立资源和系统,招聘和激励。

这也是需要出于正确的理由而参与的事情。你不能因为你认为这能让你赚钱或招到最优秀的人就进入这个过程,因为一旦你找到了更有效的方法来实现这些目标,你就会放弃这个过程。目前,围绕科技伦理的许多讨论都有一种特殊的味道:反监管。如果企业是有道德的,它们就有可能自我监管。

我不认为这是道德的作用。伦理可以引导我们对什么是对什么是错做出最好的判断。它可以让我们做出精确的决定,一种语言来解释为什么某事是一个问题,以及一种方法来确定什么时候某事是真正优秀的。但人们也需要公正:如果他们是房间里最没有权力的人,他们也需要可以依靠的东西。伦理在这里有话要说,但法律和法规也有话要说。

如果你的公司说他们很重视道德规范,问问他们接受约束和问责的开放程度。他们愿意投入多少资金来改善系统?如果员工表现不佳,他们愿意解雇他吗?

加入对话

你会无意中在科技领域制造道德沦丧吗?


在经历了一年的丑闻之后,董事会的未来如何?

作为道德行为的守护者,公司董事会继续受到挑战。在经历了一年铺天盖地的丑闻之后,特别是在银行和金融领域,许多人都在问,是否有更好的方法来监督企业正在发生的事情。

包括最近的英国皇家金融服务委员会(Royal Commission into Financial Services)在内的一系列令人谴责的调查,引发了很多关于追究董事会责任的讨论,但对董事会的结构以及他们为谁的利益服务的讨论却少得多。

伦理学家莱斯利•坎诺德(Lesley Cannold)在对金融行业的一次演讲中表达了她对这种状况的失望,称皇家委员会失去了审视“从根源到分支”改革的机会。

今年8月,她在悉尼举行的“十字路口:2019年银行和金融誓言大会”上表示:“我们需要考虑将推动不同类型的领导人到位的变革,并根据不同的标准对他们的表现进行评级——这些标准与一系列利益相关者的福祉有关,而不仅仅是股东。”

这个问题是安德鲁·林登(Andrew Linden)的核心,他是德国公司治理的博士研究员,同时也是RMIT管理学院的一名课程讲师。林登赞成德国的制度,即设立一个上层监事会(50%的董事由员工选举产生)和一个下层管理委员会来处理日常运营。

林登说,这种制度是在二战后强加给德国人的,目的是确保企业更有社会责任感,但尽管它有好处,却没有推广到英语国家。

“40年来,澳大利亚企业一直被允许摆脱这样的观念,即他们所要做的一切就是为股东服务,并使股东的回报价值最大化。

“这从来都不是《公司法》的特色。董事们有非常具体的职责,公开规定的职责,他们应该履行,但他们没有。”

他表示,上市公司董事的责任是按照公司的最佳利益进行管理,并确保公司不会把成本强加给更广泛的社会群体。

“所有这些对皇家银行委员会(Banking Royal Commission)的零敲碎打的回应,不过是子弹伤口上的创可贴。他们实际上不会解决问题。在所有这些公司治理的辩论中,董事会设计一直没有受到太多关注。”

德国的解决方案是两层模式

这种由林登提出的董事会结构将在一个上层(监督)董事会中设立非执行董事,该董事会将依法承担监督和控制、批准战略和任命审计人员的任务。

较低级别的管理委员会将设有执行董事,负责实施经批准的战略和日常管理。

他表示,这种结构将把非执行董事与执行董事分开,并为这两个群体创造明确的、法律上独立的角色。

“研究欧洲银行建议监事会有职工代表和工会代表,并引入职工选举工作委员会处理管理层的日常事务系统性风险并让高管负起责任。写关于这个主题的文章沃伦斯台普斯(RMIT大学管理学高级讲师)谈话去年。

丹麦、挪威和瑞典也在公司董事会中设立了雇员董事这种模式正在美国被提出民主党总统候选人,包括参议员伊丽莎白·沃伦和伯尼·桑德斯。

林登说:“英语国家的人们通常想到的所有解决方案都是基于所有权的解决方案。所以,你要么选择合作所有制作为股东所有制的替代,要么选择公共所有制。几十年来的所有这些争论都是关于‘谁是最好的所有者’,而不一定是关于他们的管理机构的设计。”

林登说,研究显示,风险最大的银行是那些讲英语、以盈利为目的、股东主导、由独立董事主导的董事会监管的银行。

他说:“他们是给社区带来最大成本的人。”

外包董事会

允许咨询类公司监督治理,是两位美国法律学者提出的一种解决方案。他们表示,他们“试图鼓励人们在治理方面进行根本性的创新,而不仅仅是在边缘进行细微调整”。

加州大学洛杉矶分校(UCLA)法学教授斯蒂芬•班布里奇(Stephen Bainbridge)和芝加哥大学(University of Chicago)法学教授托德•亨德森(Todd Henderson)表示,企业都熟悉将责任外包给律师、会计师和金融服务提供商的想法。

“我们设想一家公司,比如微软或埃克森美孚,雇佣另一家公司,比如董事会- r - us,为其提供董事服务,而不是雇佣10个左右独立的‘公司’来做这项工作。”亨德森在一篇文章中解释道

“就像其他服务公司,如柯克兰和埃利斯(Kirkland and Ellis)、麦肯锡(McKinsey and Company)或毕马威(KPMG),都配备了拥有庞大支持网络的专业人员一样,BSPs(董事会服务提供商)也会把董事服务的各个方面放在一个平台下。我们预计,这一举措对效率的提升将相当大。

“我们认为,聘请一个BSP来提供董事会服务,而不是由松散的个人独资企业(非执行董事)组成的团队,将加强董事会的问责——无论是来自市场还是司法监督。”

贝恩布里奇在一份报告中表示,外包给专家是一个熟悉的概念视频面试与世界大型企业联合会合作。

“你是愿意和你知道的12个在街上被雇佣的兼职者打交道,还是愿意和一个专业人士和一群专业人士打交道?”

你的导演是个机器人

2014年,香港风险投资公司深知创投(Deep Knowledge Ventures)任命了首位机器人董事,赋予其否决被其人工智能认为风险过高的投资决策的权力。

澳大利亚首席科学家艾伦·芬克尔博士告诉公司董事们,他最初认为这台名为“Vital”的机器人导演只是一个宣传噱头。

然而,五年过去了,“这家公司仍然在营业。Vital还在董事会上。而正等着她的继任者:Vital 2.0,”芬克尔在今年3月由澳大利亚公司董事协会(Australian Institute of Company Directors)举办的治理峰会上表示。

该试验非常成功,首席执行官预测,在未来十年,我们将看到完全自主的公司——能够在没有任何人工干预的情况下运营。

停下来想一想:完全自主的公司能够在没有任何人参与的情况下运营。就没有人来参加AICD峰会了!”

芬克尔博士向听众保证,他们的工作暂时是安全的。

他说:“……那些导演机器人仍然缺乏一些至关重要的东西——一些真正至关重要的东西——那就是我们所说的人工通用智能:它是集人类能力、人类洞察力和人类经验于一体的数字产品。”

“专家们告诉我们,人工通用智能的世界不太可能在2050年之前出现,或许更久。因此,希望获得一揽子交易的股东、客户和政府,在相当长一段时间内将不得不指望你们。”

“他们将依赖于你,而且只有你,作为一个非常有能力的人,可以为你的角色带来价值。”

林登同意机器人董事有局限性,在人们对技术提供治理解决方案的前景过于兴奋之前,他们需要回到最基本的问题上。

他说:“所有这些与治理失败有关的问题都归结为伦理、道德和合法性的问题——关于判断什么是适当行为的问题。”他补充说,指望机器能够做出道德判断是“无可救药的naïve”。

“这些系统取决于谁来设计它们,以及输入什么样的数据。‘垃圾输入,垃圾输出’这个古老的类比既适用于人工智能,也适用于人类系统。”

这篇文章最初是为道德联盟写的。了解更多关于这个公司会员计划。已经是会员了?登录会员门户获取更多内容和工具在这里

加入对话

董事会。有没有更好的方法来监督企业的运作?


你应该害怕像FaceApp这样的应用程序吗?

直到上周,你还会认为一个表情包不会引发对国际安全的担忧。

但自从上周FaceApp引发广泛担忧以来,许多人开始对科技行业的隐私、数据所有权和透明度提出新的问题。但大多数报道都没有触及FaceApp案所揭示的最大道德风险。

FaceApp是什么?

如果你不知道,FaceApp是一个“神经转换过滤器”。

基本上,它使用人工智能给你的脸拍照,让它看起来不一样。最近的争议集中在它让人变老的能力上,非常真实,仅仅是一张短照片。这款应用的使用非常广泛,创造了一种病毒式的趋势——通过这款应用进行点击和参与,所以每个人都开始加入进来。

你的数据去哪里了?

随着越来越受欢迎,越来越多的审查。很多人很快就注意到,FaceApp的使用条款似乎给了他们访问和使用他们收集的照片的广泛权利。有人担心这款应用程序可以访问所有照片流中的照片,而不仅仅是你选择上传的照片。

关于如何从该服务中删除数据也存在一些问题。最糟糕的是,这款应用的开发商无线实验室(Wireless Labs)总部位于俄罗斯。甚至美国少数党领袖查克·舒默要求联邦调查局调查这款应用

媒体的评论相当广泛,认为该应用程序将数据发送回俄罗斯,在如何使用或不使用数据方面缺乏透明度,也没有可访问的数据伦理原则。至少有两个是真的。在FaceApp披露的信息中,并没有多少能让用户对该应用的安全性或对隐私的尊重有信心。

不出所料,这并没有带来多大的效果。以不负责任的方式泄露我们的数据已经变得有点像吃安慰餐。你知道这很糟糕,但你还是要这么做。

原因很可能与我们沉溺于其他小恶习的原因相似:好处是显而易见的、立竿见影的;危害是遥远而抽象的。虽然我们都认为我们比那些孩子更有自制力延迟满足心理学实验在美国,我们对乐趣或好奇心的渴望往往超过了我们对数据如何被使用的任何担忧。

你应该担心吗?

这有问题吗?在某种程度上,这些数据——容易访问——可以用于我们可能不支持的一系列目标,是的。它也引发了一系列关于我们责任的复杂伦理问题。

假设我愿意将我的数据提供给FaceApp。然后,这些数据被聚合并在数据市场上出售。然后,一个由数百万张面部照片组成的数据集被用于训练面部识别AI,该AI被用于追踪俄罗斯的政治异见人士。我应该在多大程度上认为自己对世界另一端的政治压迫负有责任?

在气候变化伦理中,有一种思想流派认为,即使我们的行动不能改变一个结果——例如,通过有意义的减排——我们仍然有道德义务不使问题恶化。

一个数据集在没有我们输入的情况下仍然在出售,这可能是真的,但单凭这一点似乎并不能证明添加我们的信息或放弃。在这个假设中,放弃——或不在乎——意味着放弃我在侵犯人权和政治不公中扮演的角色(诚然很小)。

这是对未来令人不安的一瞥

事实上,它是真的不可能这就是FaceApp使用你的数据来做的事情。这是很有可能的,根据麻省理工科技评论你的脸可能会被用来训练FaceApp,让它做得更好。

它可能会利用你的脸来帮助改进分析面部来确定年龄和性别的软件。或者,它可能被用来训练人工智能创造——这也许是最可怕的deepfakes或者是不存在的人的脸。所有这一切与上面描绘的噩梦场景相去甚远。

但就算我的恐怖故事是真的,又有什么关系呢?这似乎不太可能。

当科技记者们开始谈论FaceApp潜在的数据问题时,已经有数百万人将自己的照片上传到这款应用。这艘船已经起航,几乎没有人问它什么问题。也有可能很多人读了有关数据问题的报道,然后安装了这款应用,只是为了看看有什么大惊小怪的。

谁对此负责?

当我在想我们该为这事负责的时候,我有两个方向。当然,设计师是聪明的,他们有意地设计他们的应用程序,使其流畅和易于使用。它们消除了促进认真思考和反思的摩擦点。

但这种速度和效率部分是因为我们想要它应该在那里。我们并不想真正阅读使用协议的条款,而公司很乐意提供给我们一个快速的方法来避免这样做(同时撒谎,说我们已经阅读了)。

这是一个浮士德契约——我们允许科技公司向我们出售可能对我们有害的东西,只要它是有趣的。

关于FaceApp的重要反映不是俄国人正在向我们逼近——正如凯特琳·蒂凡尼所指出的那样Vox有点种族主义和仇外心理.这反映出,只要有人向我们闪现一些病毒式传播的内容,我们就很容易放弃对道德、隐私和有效使用技术的原则性承诺。

设计伦理:优秀技术的原则西蒙·朗斯塔夫和我认为科技不是只是一个我们建造和使用的东西。这是一种世界观。当我们从技术上看待世界时,我们的核心价值观是效率、效力和控制。也就是说,我们更感兴趣如何我们做的事情比什么我们正在做的事情。

故事的两个方面

对我来说,这就是FaceApp的故事。问题不是“这个应用程序使用安全吗?”(这一点可能不比大多数其他照片应用程序差),而是“我能得到多少乐趣?”“这是一种世界观,我们愿意为踢足球付出任何代价,只要不让我们知道这个代价。”FaceApp可能不会利用这种冲动达到疯狂的目的,但它已经展示了一个相当明显的弱点。

世界就是这样结束的吗,不是一声巨响,而是一声笑声和一个标签?

加入对话

随着技术的进步,网络隐私将会发生什么?