企业需求与人工智能的未来,第二部分

美国公司法以及科技公司和强化学习代理的危险工具推理

T他在过去几年里得到了迅猛的发展和壮大数字平台以及人工智能领域数据科学伦理.数字平台由世界上最大的一些科技公司所有,这个集团被统称为大型科技股字母谷歌),亚马逊苹果脸谱网),微软。

通过数字平台,大型科技公司越来越多y调解和影响我们购买的产品,我们使用的服务,以及我们消费的娱乐。这些上市公司将其数字平台和数据共享基础设施联网,以创建全球平台生态系统规模空前,社会影响力空前,经济价值空前。对于好奇数字平台如何利用原则的读者行为主义心理学而且强化学习基于个性化来修改人类用户的“环境”,参见第一部分企业使命系列

由于上市公司依赖公开金融市场为未来项目获得资金,它们最终必须对全球股东和债券持有人(所谓的股东和债券持有人)寻求财富的需求做出回应剩余索取人由此产生的法律考虑限制了公司的推理和行为,并对我们在道德上评估其行为的方式产生了影响,特别是那些运营数字平台的公司,如谷歌、亚马逊和Facebook。我尤其担心工具理性的公司在几乎没有监督的情况下部署工具理性的RL代理。

请注意,许多关于法律约束和工具理性的问题也适用于私人股本而且风险资本在新兴科技公司的早期增长阶段,越来越多地使用这种方法。

企业社会责任与人工智能

大型科技公司在推进人工智能研究、发布政治新闻、教育公民和传播公共卫生信息方面发挥着越来越大的作用。后一种职能传统上由具有正式道德和政治问责制度的公共机构和政府履行。

尽管记者们经常谴责大型科技公司的垄断行为,但我想关注一个略有不同的问题。随着企业拥有的平台越来越多地成为各种行业的数字jack,人们不禁要问:个人和社会真的能从这种安排中受益吗?鉴于它们在现代生活中的新发现,在我们全球化的社会中,公司是什么,又应该扮演什么角色?

在一个有影响力的系列论文企业社会责任,商业伦理学家圭多宫殿而且安德烈亚斯•谢勒他们认为,全球化需要新的道德理由来证明公司所扮演的巨大的社会角色。这些道德理由必须超越增加便利或生产效率的实用主义理由。此外,鉴于公司在全球运营,它们必须吸引来自不同民族国家和文化的人。也就是说,他们还必须考虑到这一点价值多元主义事实是,来自不同文化的通情达理的人对善与对的概念可能有冲突。

Palazzo和Scherer建议参与性,公共领域民主讨论是一种阐明全球企业新发现的社会角色和责任的道德理由的方式。一旦这样的民主机制到位,像谷歌和Facebook这样的公司就可以真正谈论“为社会公益做数据科学”了。

企业数字平台的社会嵌入性

由企业开发和拥有的数字平台和人工智能技术存在于一套复杂且相互加强的嵌套社会结构中。

股东与公司的关系被编入公司法和合同法,并在法院判决中得到执行普通法的先例。当然,法官是由政治领导人任命的,在某些情况下,是由投票的公众直接选举产生的。最后,道德因素决定了谁投票、如何投票以及在什么年龄投票。道德考量至关重要规范政治进程结果的合法性。我们一致认为腊肠犬不应该投票和他们的政治观点,不管他们有多可爱,在道德上都是无关紧要的。至少现在是这样。

上面的图表说明了公司拥有的数字平台的嵌套性质,在不同的层面上提出了新的合法性问题。虽然我们经常认为公司结构是理所当然的,在现实中,和新自由主义理论强调,它需要一个复杂而强大的法律和政治体系才能蓬勃发展。例如,在经济体系层面,capitalism指私有的生产资料。在资本主义制度下,公司需要一定的制度和概念才能生存。我们需要私有财产的概念。合同必须由法院签订并强制执行。公司成立规则必须由立法机构起草,等等。

资本主义作为一种经济体系,本身依赖于更大的政治背景和基础理论。政治理论是在政治规则和程序中实现的,这些规则和程序赋予政治权力行使的规范性合法性,即总统的民主选举。这些民主程序反过来又有道义上的理由平等,公正和透明,也就是说,在原则比如“一人一票”和法治这使得公民只对公开颁布的法律负责。

每个层面都有自己的理由,各个层面都可能有冲突,尤其是在不稳定的社会制度中。这些理由到底在哪里?我跟随维特根斯坦相信道德体系——实际上是正式的体系本身——最终是建立在任意的“生活形式”之上的,而不是最终的真理或宏大的叙述。

数字平台:盈利性组织和自动化决策

数字平台将利润驱动组织的概念与基于AI/ ml的自动化结合在一起。所谓自主人工智能系统,我指的是数字平台上的系统,旨在使用人工智能的形式和算法生成个性化的推荐强化学习(RL)。

尽管自动化决策似乎是在社会中实现更有效资源配置的自然方式,但数字平台的概念在道德上是令人担忧的。为什么?因为它结合了两件具有粗略道德记录的东西:自主人工智能系统和一个虚构的法律实体公司.虽然企业确实擅长高效地生产产品和服务,但它们也有这样的历史:

奇怪的是,rl代理人和公司都存在道德缺陷,因为他们的行为都是由狭隘的工具理性支配的。因此,我们可以预期公司代理部署的rl代理也会出现类似的道德问题。更糟糕的是,通过数字平台将这两种工具理性的代理结合起来,可能比单独使用任何一种更糟糕。

公司的法律基础和宗旨

为了更好地理解为什么大型科技公司的行为如此有争议(导致像《华尔街时报》这样的法律出台)欧盟GDPR),它有助于在脑海中对公司的具体情况有一个大致的了解。这是MBA的默认观点。

公司法人是为解决各股东独立利益的审判问题而设计的一种法律结构。当一群自然人同意“合并”并集中他们的资源以实现一个共同的目标时,他们就形成了。因此,经常听到正统的经济学家把现代公司说成是一个契约的联系在理性自利的各方之间。

美国公司法从经济角度出发,假定公司决策是为追求更高市场价值的理性自利股东的偏好服务的。股东权利旨在确保公司管理者尊重股东的“主要利益”——实现最大的投资回报。据说,公司经理对股东负有“受托责任”,要以最有利于股东财务利益的方式行事。至少在理论上,经理们是这样的代理受合同的约束,执行命令主要股东们。即使是企业的慈善捐赠也必须受到限制,并支持长期财富最大化的目标。

公司作为依法建立的集体决策机构,其法定和正式的结构使公司享有一定的经济利益。首先,公司的创立将个人原本不同的利益统一起来,建立了一种纽带,培养了公司内部的信任,使得内部交易比涉及外部市场的交易成本更低。此外,公司成立的行为允许资本几乎无限数量的不同股东被集中起来,投入一个单一的目标。例如,有限责任公司股东意味着个人只能损失他们在合资企业中的个人投资。然而有限责任也会造成道德风险投资者承担了比他们应该承担的更多的风险,因为他们只需要承担一小部分的负面影响。

社会本体论与作为正式组织结构的公司的形而上学

这是对公司的另一种看法。在一个有影响力的文章在美国,哲学家约翰•拉德(John Ladd)认为,企业就是如此正式的组织。他们是本质上是追求目标的机器,其功能部分由个体的人类行动者组成。组织理论家和人工智能先驱赫伯特西蒙他认为正式的组织本质上是“决策结构”。

从形而上学的角度来看,公司不同于其他集体,比如家庭。尽管个人数据科学家或股东可以在集体中采取行动,但这些行动属于组织,而不是组成组织的个人。一家公司的员工可以在不改变公司身份的情况下被解雇或重新聘用。与家庭相比。个体成员的身份是不可替代的——你的家庭不再是你的家人当你把你奶奶和你楼上公寓里的疯老太太互换的时候。

公司是无形的,但是真正的在因果有效的意义上。这听起来可能很奇怪,但这是人类独特的应对能力的结果规范就像物理定律一样。举个例子,你可能会为了保护你的荣誉.如果荣誉不是你脑海中一个无形的概念,但却可以随意解释你的行为,那它是什么?

考虑这一点。你可以踢一栋大楼或公司总部的桌子,但无论你怎么努力,你都无法踢一家公司。这是因为当某些具有法律和政治合法性的机构宣布它们存在于我们的社会现实中时,它们就存在于我们的集体思想中。就像在Python脚本中定义一个函数一样,我们通过声明它是这样来实现它,并且通过它在解决问题时的因果效力来判断函数的“正确性”。

哲学家约翰塞尔称这些规范行为为“声明性的”言语行为,其合法性是基于我们作为一个社会同意赋予特定机构的“地位功能”。例如,当牧师在适当的场合说:“我现在宣布你们成为夫妻”,你们就结婚了。他的言语行为立刻创造了它所代表的现实。

《科学怪人》,《工具理性》和《道德责任》

公司的存在是为了实现具体的、具有法律约束力的财富最大化目标,这些目标通常在公司章程中明确规定。然而,作为纯粹虚构的法律实体,公司受到其组织结构和美国公司法的限制,不能以工具理性的方式行事的方式。拉德认为,这种正式的组织结构展示了语言游戏定义正式组织的含义。根据定义,任何不符合手段目的工具理性的东西都不能进入决策过程。

什么是工具理性或理性?工具理性是选择最有利于法律强加的利润最大化目标的技术手段。作为赫伯特西蒙解释说,

[工具理性]不能告诉我们去哪里;它最多只能告诉我们如何到达那里。它是一把可以雇佣的枪,可以为我们拥有的任何目标服务,无论目标是好是坏。

纯粹的工具理性行为者的道德含义是什么?受其正式组织结构的约束,公司不能被视为道德代理人。借鉴康德拉德说,公司不能行使道德自由因为他们只能推理手段,而不是最终目的。因此他们缺乏承担道德责任的能力。尽管在正常的话语中,我们可能会指责或赞扬公司的行为,就好像它们本可以采取其他行动一样,但我们正在犯一个类别错误。

因此,公司就像一个不道德的弗兰肯斯坦,存在于人类道德共同体的边界之外,如果我们希望保持安全,就必须对其行为施加正式或法律约束。

这听起来像吗价值定位RL有问题吗?

工具理性RL与经济主体的病态行为

公司是正式的代理在抽象意义上,他们感知的状态(收集输入数据)环境通过传感器和行为(做决定,执行操作)通过执行器对其进行操作修改(计算)环境——我们的社会。数字平台为企业提供了在数字环境中实际进行感知和行动的技术基础设施。

令人担忧的是,rl代理和公司都受到工具推理的限制,因为它们的基础是预先选定的目标函数的数值优化。按照美国公司法的规定,公司的既定目标是利润最大化或股东财富最大化。数字平台上的rl代理也同样以最大化折扣累积奖励为目标。

正如作者所指出的尼克·博斯特罗姆,工具理性可以导致rl -agent的矛盾非理性行为。重要的理论家马克斯•霍克把工具理性描述为

过于频繁地磨剃须刀片,会变得太薄,最终甚至无法胜任它所局限的纯粹形式主义的任务。

工具理性也可以解释企业的贪婪。最近的潘多拉文件的泄露揭示了超级富豪如何利用空壳公司和信托来隐藏他们的身份,在世界各地的避税天堂隐藏巨额资金。利润最大化的工具性目标诱使许多大公司采取在道德上似乎令人厌恶的行为政策。但法律迫使他们的隐喻之手。如果股东认为董事会在履行财富最大化的职责时存在疏忽,他们有法律权利起诉董事会。这是工具理性和胡萝卜大棒行为主义心理学。

就像一些美国公民对大型科技公司不缴纳公平份额的税款感到愤怒一样,数据和人工智能伦理学家担心,基于行为参与对奖励功能进行工具优化会对数字“环境”产生影响——包括它可能对政治系统和心理健康造成线下“泄露”。经济学家把这些效应称为外部性但是他们是代谢废物被称为公司的经济主体。

但也许我们只是把期望定得太高了。也许问题不在于公司结构本身,而在于我们把公司想象成有道德情感的人。

企业品牌,个性,指责和道歉

现代企业在品牌和营销活动上投入了大量资源。为什么?这样做为这些经济主体创造了个性的代理人,并培养了与消费者、雇主和监管者之间的情感纽带。想想Facebook的口号“让世界更紧密或者麦当劳的“我爱死它了。”更讽刺的是,人们可以将这称为经济主体为更好地实现其目标而进行的一种战略操纵形式。

不同的公司开发不同的“文化”、“政策”和“业务流程”,以适应不同的环境。更成功的企业通过反复试验来学习,根据商业环境的状态采取更有效的行动。他们的行为政策的有效性是相对于一个目标函数来定义的。在公司的情况下,法律规定了目标功能。旁注:特拉华州公司法在界定公司宗旨方面一直具有影响力。特拉华州是个小州,拥有10万人口超过100万家商业实体和66%的财富500强企业.相比之下,对于数字平台,数据科学家指定奖励函数,使其与企业目标函数相关联。成功的rl代理和企业学习独特的“个性”或行为策略,以帮助他们“控制”特定的环境,并积累最大的奖励/利润。

奇怪的是,美国法律倾向于将宪法的某些方面解读为既适用于公司,也适用于自然人。汤姆·哈特曼解释说,美国最高法院支持了第十四条修正案公司及自然人。在美国宪法中,企业现在可以主张许多自然人的权利,比如言论自由。因此,我们赋予公司许多公民权利,尽管事实上它们既不是道德代理人/患者,也不是有意识的实体(尽管是由有意识的个体聚集而成)。

企业品牌化进一步助长了法人与自然人的错误类比。如果公司像自然人一样,指责或赞扬他们似乎是很自然的有意的立场并赋予他们各种各样的意图状态,比如信念,想要和欲望,来理解他们的行为。但在这样做的时候,如果我们不仔细思考,就很容易被操纵。

例如脸书为其人工智能将黑人照片标记为“灵长类动物”而“道歉”。Facebook学会了释放道歉的行为外壳来实现恢复信任和社会和谐的战略目标,这是一个商业环境状况与未来利润息息相关.这些外在的动作只是人类为追求更大的投资回报而进行的目标导向的试错所产生的可理解的副作用。

因此,Facebook的公司道歉是两面派。Facebook本身从未经历过有意的州恐惧和痛苦定义了道歉的经历,并赋予它道德价值(我们倾向于惩罚那些较少宣布自己有罪的人)。没有它是什么样的只有那些真诚道歉的数据科学家、经理和董事会成员才会感到后悔、内疚或羞耻。

不是每个公司(总是)都是科学怪人

不要误会我的意思。企业偶尔会以道德上值得赞扬的方式行事,即使我们在赞扬它们时犯了一个类别错误。例如,鸿海而且台积电两家全球最大的电子/芯片制造商,捐赠1000万剂为台湾的疫苗接种工作提供帮助。

但即使是理性的自利经济主体也会表现出什么出现如果这是他们长期生存所需要的利他行为。仔细观察,这种利他行为的选择是为了它的长期效用,而不是出于任何内在的内疚、悔恨或仁慈。

企业无疑提高了全球数百万人的物质生活水平,但这些利益的分配却不均衡。爆炸避税天堂而且离岸金融中心在英国非殖民化之后也没起什么作用。尽管取得了一些进展,但政治理论家认为,改善一些人的生活水平并不足以自动证明企业渗透到以前由国家参与者参与的生活领域是合理的。与现代全球企业不同,国家可以在其社会权力的基础上提出实质性的道德和政治理由。

对于大型科技公司的数字平台的社会力量,相应的道德理由是什么?

思考数据和哲学。国立清华大学服务科学研究所博士研究生https://www.linkedin.com/in/travis-greene/

Baidu
map