Think博客

在受监管行业实施智能人工智能的关键优先事项

人工智能图标叠加在一个受监管行业组织的董事会里世界杯押注的人的图像上

人工智能,特别是生成式人工智能,都是组织领导的首要考虑因素. 对落后的恐惧是强烈的, 很少有企业的首席信息官不承受巨大的部署压力. 对于任何组织来说,在采用任何类型的人工智能之前,制定一个深思熟虑的策略来降低风险并最大化业务价值,这是一个很好的建议, 高度管制的行业 药品, 医疗保健, 金融服务 必须特别小心. 毕竟, 人工智能不会在如何使用数据以及与消费者沟通方面违反法律法规.

也就是说, 尽管在这种受监管的环境中航行可能会很棘手, 它所能带来的价值是值得的. 然而, 为了实现这个价值, 整个领导团队必须制定一个详细的计划,以确保他们在不疏远客户和员工、不陷入监管麻烦的情况下实现目标.

好吧,那你怎么开始呢? 在这篇博文中, 我们将讨论受监管行业在实施传统人工智能和生成人工智能方面面临的挑战,并提供该领域公司制定人工智能战略时需要考虑的四个优先事项.

首先要关注客户和员工的信任 

如果与人工智能患者互动的人, 客户, 医生, 经纪人——不要相信它, 他们不会用的. 如果你部署的AI没有被使用,你就浪费了大量的时间、资源和金钱.

采用变更管理

对于客户和患者来说,强有力的变更管理至关重要. 例如, 即使是在21世纪20年代, 一些医院系统仍在使用纸质病历,而不是电子病历(EMR)。, 甚至在已经完成这种转变的系统中, 一个小但是 相当多的医生决定退休而不是使用电子病历. 对于医生来说,数字助理是一个更大的飞跃. 将人工智能融入日常世界杯押注是一个巨大的变化,需要建立信任才能取得成功.

制定一个深思熟虑的沟通计划

逐步引入AI,确保有一个深思熟虑的, 全面的营销和销售计划,以传达您的组织如何以及为什么提供人工智能功能. 确保提供一个人类替代方案, 尤其是在客户服务或与医疗保健提供者交谈等活动中,这些活动以前需要人工参与. 客户和患者需要一段时间才能适应与人工智能的互动. 

揭秘人工智能和机器学习的世界杯押注原理

对于员工来说,了解人工智能和机器学习(ML)的世界杯押注原理非常重要. 人工智能通常被视为——在某些情况下实际上是——一个数据输入的黑匣子, 结果出来了, 没有人知道算法是如何得出结论的. 尽可能采用透明的人工智能,使最终用户能够遵循其逻辑. 当这是不可能的, 举办研讨会,对已知结果的情况进行人工智能分析,以证明准确性并建立信心.

建立培训计划并提供有用的信息

就像对待顾客一样, 逐步引入人工智能, 每一步, 确保每个人都消息灵通,训练有素. 来自组织各个层面的沟通——尤其是来自高管层的沟通——必须清楚而频繁地解释人工智能将帮助实现的目标和好处. 

要清楚,人工智能将支持员工,而不是取代他们

另外, 不要用人工智能来取代人类——这既不道德又无效——而是要帮助人类. 如果人们认为他们会因为人工智能而失去世界杯押注,士气就会暴跌,信任就会不复存在.

尝试降低风险的策略

尤其是人工智能和生成式人工智能,给高度监管的行业带来了风险. 在制药和医疗保健领域, 法规对索赔的管理非常严格, 语言, 甚至制药公司可以通过布局来宣传他们的产品. HIPAA和其他法规保护患者信息的隐私, 这可能会限制如何使用医疗保健数据来培训法学硕士. 不要忘记,生成式人工智能有“幻觉”的倾向——如果它给客户或病人提供错误的信息, 人们可能会受到伤害,甚至死亡. 

思考人工智能和你的数字产品?

我们的专家团队可以提供帮助.

金融服务业的风险也很明显,即使生命和肢体可能没有受到威胁. 有偏见或产生幻觉的人工智能可能会做出糟糕的预测或提供不准确的信息, 导致员工做出错误的投资决定,使公司损失数百万美元,或者导致客户损失金钱和金融稳定. 

为了防止这些情况,组织必须:

  • 在部署之前和正在进行的基础上建立严格的测试协议. 
  • 确保建立坚固的护栏,以确保结果是准确的,并在相关法规的范围内. 
  • 避免让人工智能在没有人为干预的情况下自行运行,除非风险非常低. 人工智能应该帮助人类,因为人类是做最终决定的人.

寻找对隐私友好的替代品

超越健康信息, 个人识别信息(PII)受一系列州和国家法规的管辖, 包括加州消费者保护法和GDPR. 使用PII和健康数据来训练人工智能或, 更糟糕的是, 在响应中出现个人身份信息可能会使组织面临严重的罚款. 

在培训中使用之前,对所有个人数据进行匿名处理, 并且只使用您需要的数据来获得所需的结果. 一些组织使用合成数据进行培训. 合成数据是由一种算法创建的,这样人工集就可以复制原始集内的关系. 以这种方式, 组织消除了PII和健康信息的问题, 但是,需要进行广泛的测试,以确保此类培训的结果是有效的.

将道德放在人工智能的首要位置

人工智能的好坏取决于它所接受的训练数据, 数据可能包含隐藏的偏见, 在人工智能中产生偏见. 

例如, 美国医院和保险公司用来识别需要“高风险护理管理”的患者的医疗预测人工智能被发现存在问题 严重低估了黑人病人生病时的严重程度. 一项调查发现,该算法将医疗支出作为患者医疗需求的关键指标, 生病的黑人病人和健康的白人病人的花费大致相同, 是什么导致算法低估了他们的医疗需求.  

在金融服务业, 人工智能存在偏见的例子更难以证明, 但很明显,偏见在这个行业中是普遍存在的, 它经常使用预测和人工智能算法来协助抵押贷款审批. 由The Markup进行并由美联社发布的一项研究发现, 与类似的白人申请者相比, 贷款人更有可能拒绝有色人种. 黑人申请者被拒绝的可能性要高出80%, 印第安人的可能性要高出70%, 拉丁美洲人的可能性要高出40%. 

有偏见的人工智能将产生不准确的结果,并可能使组织承担责任. 聘请一名数据科学家,以确保数据尽可能公正. 在部署前严格测试偏差,并在生产过程中不断进行测试, 根据需要调整模型.

有意识地设计你的AI策略

在一个高度监管的行业部署人工智能是棘手的, requires careful research 和 planning; change management that comes from the very top of the organization; strong guardrails to ensure accuracy 和 prevent hallucination; 和 extensive testing to ensure that the data 和 results aren’t biased or inaccurate. 这不是一项微不足道的努力, 整个组织都需要支持它, 但最后, 为了实现人工智能的好处,投资是值得的.

你的组织是否制定了人工智能战略? 我们的专家团队了解受监管行业中合规和合规的复杂性我们可以帮忙.


保持了解

接收博客文章,有用的工具和公司更新直接到你的收件箱.

我们保持简短,让它很容易退订,从不分享你的信息.

本网站是由reCAPTCHA和谷歌保护 隐私政策服务条款 应用.

给我们寄张明信片,写封信

有兴趣和我们一起世界杯押注?

我们对项目进行界定并组建团队,以满足您组织的独特设计和开发需求. 告诉我们你今天的项目,开始对话.

了解更多