网站首页

产品中心

智能终端处理器 智能云服务器 软件开发环境

新闻中心

关于开元体育

公司概况 核心优势 核心团队 发展历程

联系开元体育

官方微信 官方微博
主页 > 新闻中心

开元体育合理使用AI指南

发布时间:2023-10-05 20:25浏览次数: 来源于:网络

  ChatGPT这样的生成式人工智能工具的出现势必将改变我们的工作,但是关于“如何”(how)的问题,似乎还缺乏指引。今天这篇文章深入探讨了生成性人工智能在非营利组织中的应用,强调了采用AI技术的潜在优势以及相应的伦理挑战。文章提出了八个关键步骤,以确保在非营利组织中合乎伦理地使用AI,包括深入了解AI的影响、正视员工的焦虑与恐惧、保障数据安全、降低风险与偏见、选准应用场景、进行AI的试点使用、重新设计职位和进一步工作场景学习。最终,文章呼吁非营利组织领导者采取负责任的态度,确保AI的使用始终符合组织的价值观和使命,同时创造更加高效和有意义的工作环境。

  人们接受ChatGPT这款生成性人工智能写作工具(generative AI writing tool)的速度令人震惊,其迅猛发展的速度几乎令人目瞪口呆。根据UBS整理的数据显示,ChatGPT能够根据用户提示创作出新的文本,在短短两个月内,月活用户就超过了一亿。相较而言,当红平台TikTok和Instagram分别花了九个月和三十个月的时间才达到了同样的指标。

  如果我们借用斯科维尔量表——一种科学测量辣椒辣度的方法,尽管这种类比有些非科学,我们还是能够类比地理解在软件应用的历史中,ChatGPT这一现象到底有多么的独一无二。

  这张图表将辣椒的相对辣度与历史上一些增长最快的应用的用户增长率进行了比较

  目前,生成性人工智能正处于新兴技术成熟度曲线(Gartner Hype Cycle)的第二阶段。新兴技术成熟度曲线是商界用来描述创新成熟度的一种图像表示法。它已经走过了第一阶段——“创新的引爆点”(“innovation trigger”),在这一阶段,技术突然从各个地方冒了出来。现在,它正处于“期望膨胀的顶峰”( “peak of inflated expectations”)。我们之前已经多次见证了这一周期,比如在个人电脑、移动电话和社交媒体等技术上。但是,人工智能与之前的技术有一点不同:到目前为止,它做出了原本只有人能做的决定。这包括决定雇佣谁和讲述什么故事。这让这个时刻变得既刺激又令人恐惧。

  在社会领域,众多非营利组织相信,AI能够即刻且无痛地解决我们遇到的所有工作问题(但事实并非如此)。还有一些人对其可能带来的巨大混乱和人员替代问题感到极度恐慌。一些组织已经迅速采取行动,而有的则选择观望。但有一点毫无疑问:与AI的深度融合对非营利组织来说是不可或缺的,这个过程需要经过周密的准备。

  虽然麦肯锡近期的一项研究表明,人工智能完全融入工作场所可能需要几年时间,但这个过程已经启动。筹款人们正在利用AI编写捐赠者的感谢信、定期简报、申请书和新闻稿。一位发展官员向我们透露,利用ChatGPT来帮助草拟和编辑这类文件,每周为她节省了大量时间。一位为人力服务机构工作的资金申请撰写人也分享了她的经验,她利用ChatGPT对三项不同的资金申请提案进行编辑,使其更为简练,而这三个提案都成功获得了资助!

  日常软件产品,例如Google Workspace和Microsoft Office,也开始融入生成性AI功能,以协助用户制作演示文稿、回邮件和安排会议。非营利组织才刚开始运用这些工具,而像Microsoft和生成性AI“Skills Challenge”这样的努力,会为生成性AI的培训和技能提升赋予社会影响力,无疑将加快这一趋势的发展。

  其他种类的AI也正逐渐在组织中占据一席之地。例如,ChatGPT这样的聊天机器人能够回答网站用户的问题或按需向非营利组织员工提供内部信息。AI驱动的筛选工具正在评估可能的雇员和服务接受者。还有许多AI驱动的筹款工具帮助进行捐款者的募集和沟通管理。

  若谨慎而巧妙地使用,人工智能有巨大潜力,可以每年节省数千小时的重复和耗时工作,从而让人们有更多时间做只有人类才能做的事情:解决问题,加深关系,建设社区。而像“协同机器人”这样的方法,涉及使用AI工具来增强而非替代人的工作,能够最大限度地发挥机器人和人的长处,赢得时间红利。

  但让我们忧虑的是,有的组织为了追求时间红利,过于急切地深入使用这些极其强大的技术,而没有充分考虑到对人类或伦理层面的影响。在2022年,国家饮食障碍协会(National Eating Disorders Association, NEDA)成为了轻率和鲁莽使用AI的代名词。新冠肺炎疫情引发了其热线名志愿者几乎无法应对这种需求。为了应对这种情况,该组织推出了由AI驱动的聊天机器人Tessa,用以应对饮食障碍者的查询,并马上裁减了热线员工。糟糕的是,NEDA未能对聊天机器人进行足够的监督或控制,这导致它开始向来电者提供有害的建议。

  生成性AI引发了一系列伦理问题和复杂情况。大型学习语言模型如ChatGPT是基于互联网内容,例如、社交媒体Twitter和Reddit等网站的内容进行训练的。因为这些数据包含了过多的白人至上主义、厌女和年龄歧视的观点,所以基于这些数据训练的工具可能会进一步放大这些偏见和伤害。ChatGPT也可能提供假信息,或者研究人员称之为“幻觉”,以非常有说服力但不准确的文本回应用户的提示或问题。另一个风险是,使用任何公开的、免费模型的筹款工作人员可能会无意中将私人捐赠者信息输入到模型中,实际上是向其他用户开放了这些信息。因为许多生成性AI工具未经许可就将互联网上受版权保护的文本和艺术品纳入了他们的数据库,所以关于知识产权的担忧和诉讼也在增加。还有与道德叙事相关的风险。例如,位于多伦多的非营利组织Furniture Bank在2022年的假日活动中使用了看似真实的AI生成的图像,募集到了捐款的同时也引发了伦理问题。

  采用ChatGPT也会带来声誉风险,尤其是当人们未在分享生成的文本前仔细审查时,结果可能会令人不快和感到冒犯。例如,德国的一家肯德基餐厅近期发布了一条AI生成的推文,让人们以肯德基餐点来铭记水晶之夜。这条推文声称:“纪念水晶之夜,用更多柔软的起司和香脆的炸鸡来慰劳自己。现在就在肯德基!”(译者注:1938年11月9日这天晚间,纳粹分子在全国各地焚烧、破坏并洗劫犹太商店、企业和犹太会堂,这起事件被认作是纳粹企图系统性消灭欧洲犹太人的开端。「水晶之夜」(Kristallnacht)又称「碎玻璃之夜」(Night of Broken Glass),因当时满地碎玻璃在月光映照下闪闪发光犹如水晶闪烁而得名。AI生成的推文明显不符合哀悼的要求。)而坐落在田纳西州的范德堡大学皮博迪学院则让ChatGPT来撰写一封关于社区团结应对密歇根州立大学大规模枪击事件的“发自内心”的信。

  合乎伦理地运用AI不是一项技术挑战,而是一项领导使命,它的实施必须要秉持着以人为本的原则。领导者需要建立明确的准则并提供培训,确保所有人都了解AI的功能,并对其使用进行细致和深思熟虑的考量。这不仅是为了避免潜在的法律风险和声誉损失,更是为了确保我们的社会价值观得到体现和维护。这不仅涉及到技术负责人,更包括所有员工。认为员工因为非营利组织未制定相关准则,或禁止使用生成性AI就不会用它的想法是不明智的。最近,Fishbowl的研究显示,43%的各领域职业人士正在使用生成式AI,且其中70%的人在无上级知情的情况下使用它(有可能领导也在使用!)。

  我们呼吁各个组织立即采取行动,明智而合乎伦理地引入AI来提高工作效率。以下这些建议为组织提供了一个持续探索、实验和成长的框架,但这也并非一劳永逸的清单。

  非营利组织的领导需要深入了解员工所使用或计划融入其工作的AI工具会如何影响组织运作和成果。在深入实践之前,他们应该三思,仔细权衡可能的风险和收益,而不是急于尝试并轻易接受失败。举例来说,虽然开发者将AI描述成了一种万能的解决方案,但明确每个工具的能力和局限性却至关重要,因为一线实践者们还在探索如何在适当的条件下有效地运用它们。

  可能有关AI的最大恐惧就是它会夺走工作。在一项最近的Fishbowl调查涵盖了44个国家和地区的52,000人,其中近三分之一的受访者担心AI或其他技术会在未来3年内使他们失业。然而根据世界经济论坛的就业报告,事实可能是工作不会消失,只是工作内容会有所改变,且这并不是一蹴而就,而是逐渐发生的。领导者可以通过开放、坦诚的对话来缓解员工对工作和职位变化的焦虑,讨论技术的使用和组织采取的步骤,以确保其使用符合价值观并以人为本。他们还可以做出保证,不会有员工因为组织采用AI而被裁员,并且AI将增强并支持员工的工作。

  在采用AI之前,非营利组织应制定书面承诺,阐明AI将只会以以人为中心的方式被使用。声明应强调,人们将以不产生或加剧偏见的方式始终监督这项技术,并对其使用做出最终决定。正如非营利技术企业网络(Nonprofit Technology Enterprise Network, NTEN)的首席执行官艾米·桑普尔·沃德(Amy Sample Ward)告诉我们的,“我认为最简单也最重要的准则之一就是,工具不应做出决定。这一直是NTEN内部方法的核心部分。”组织应特别关注AI介入人际互动的实例,例如收集客户信息以评估心理健康状况或提供咨询服务,在这些场景中,对人类福祉的风险最大。这包括深思熟虑人机协同的工作流程:人们将始终监督哪些环节,机器人又将如何辅助这些工作?

  非营利部门能够而且应该提高数据的安全和伦理使用标准。领导者必须对如下问题给出肯定答案:我们的AI工具抓取的书面材料是否得到了作者的授权,以被包含在数据库中?我们是否按照欧盟的建议,给予我们的订阅者、捐赠者和其他支持者“被遗忘”的机会?在由我们作者中的两人合著的《智能非营利组织》(The Smart Nonprofit)一书中,有一整章专门讲述领导者如何开始回答这些问题,并理解他们考虑采用的不同工具相关的隐私问题。

  在网络安全领域,有一种称为“威胁建模” (threat modeling)的方法,用以设想在AI使用案例概念从原型转向试点再到完全实施时可能出现的问题。非营利组织也应该采取类似的从风险出发的策略,确保AI使用的安全性和无偏见,这包括讨论和预测最坏的可能性。例如,非营利组织“最佳朋友动物协会”(Best Friends Animal Society)想在“黑猫领养周”活动中利用聊天机器人帮助未来的猫领养者选择适合的猫。但是,在测试阶段,他们发现机器人容易重复种族歧视的言论或不恰当的性含义。即便是在有控制的试验环境中,训练机器人避免这些表述也几乎是不可能的。而且,程序员有推荐自己喜开元体育欢的猫的倾向,这产生了偏见,因此团队最终决定追求其他策略。

  非营利组织应该优先利用AI解决那些痛点、瓶颈和制约其他事务发展的问题。以位于巴尔的摩的国家水族馆为例,其发展团队发现自己在进行捐赠者研究上花费了极大的时间,因此他们转而使用了一种集成财富筛选数据的AI驱动捐赠者数据库,极大地协助了他们从多个来源汇聚数据与研究。而其他痛点,如不断寻找文件时的挫败感或是反复处理来自相关利益方的同类问题所导致的时间浪费,也是值得关注和解决的问题。

  组织不应该在经过深思熟虑和精心控制的实验之前大规模应用AI。领导者应该从一个小规模、限时,并且可以由员工进行评估的原型测试开始,考量AI的使用对他们的工作、与组织的关系以及他们的时间产生了何种影响。除了衡量对员工和外部利益相关方的影响之外,组织还需要在正式推广前彻底仔细地检查结果的准确性,并排除潜在的偏见。例如,非营利组织Talking Points开发了一款利用AI进行对话翻译的应用,该应用旨在协助老师与不说英语的家长沟通,但在经过大量用户测试以确保翻译的准确性之后,才开始使用。

  AI的推广不仅能够为员工节省时间,还可以让他们有更多机会承担其他职务。因此,组织需要更新职位描述,一些员工需要进行技能提升,这样他们才能够更有效地监督并从诸如ChatGPT这类工具中获得生产效益。组织应制定包含最佳实践在内的公用手册,并提供有关如何设计(给AI的)指令等方面的指导。同时,也需要建立一些基本规则,例如员工只能将AI输出作为初稿,必须手动核实回应,并且不能与公开的AI模型分享机密信息。在非营利技术企业网络,员工可以利用任何分析、机器学习或其他科技系统来收集或提供一些关于数据或信息的观点,但这仅仅作为分析的一个环节。非营利技术企业网络的员工会做出所有决定并执行所有动作。最后,一个健康的工作环境需要人与人之间的连接,所以职业技能的发展必须包括培养情商、同理心、问题提出和创造力。

  无论是生成式的还是其他类型,AI可能会在未来几年间渗透到组织生活的各个方面。它会彻底改变人们在组织中的角色以及技术的应用方式。为此,非营利组织的资深领导者应立即着手制定严密的伦理底线和使用准则,确保组织对AI的使用始终坚持以人为本的理念,确保人对技术保持掌控。有责任心和深思熟虑的投入不仅将提高生产效益、优化非营利组织员工的工作体验,还将帮助非营利组织更好地服务客户并吸引更多捐赠者。

  艾莉森·费恩在社会向好科技领域是一位杰出的引领者。费恩目前是 Every.org 的总裁,该组织允许所有非营利组织在线无需支付平台或交易费用即可接收各种方式的捐赠。

  菲利普·邓是 Grantable 的联合创始人和首席执行官。Grantable 是一款由 AI 驱动的全球领先的拨款写作助手,服务于所有类型的组织。他依托于与三个大陆的非营利性拨款组织合作积累的 15 年经验,构建了这个原型。

下一篇:开元体育Meta开始为所有广告商推出生成式人工智能工具
上一篇:开元体育当人工智能瞒过了房贷行业的“雷达” 一次奇妙的融合就这样悄悄开始了

咨询我们

输入您的疑问及需求发送邮箱给我们