skip navigation
skip mega-menu

Artificial intelligence (AI) and machine learning technology are no longer mere buzz words; organisations are keen on aligning their initiatives to meet industry guidelines and recommendations. 随着我们不断突破人工智能的极限, 管理机构必须建立一个框架,让组织考虑道德影响,而不是政策, 而是作为对受其影响的人的道德义务.



A responsible approach

人工智能正在彻底改变企业,简化运营,降低成本. 然而,在大量机会的同时,也存在风险. 负责任的创新的关键在于仔细平衡道德与进步.

机器学习(ML)和人工智能(AI)的快速发展引发了一系列伦理问题. For example: 基于文本的生成人工智能工具中的性别偏见 as researched by Isobel Daley, 数据科学家和6point6展示了人工智能如何强化传统的性别角色, facial recognition technology, 如研究报告 Gender Shades project, has exhibited bias, 特别是在对不同群体的分析以及对社会的广泛影响方面. 人工智能驱动的招聘工具因歧视性结果而面临审查 hiring practices. 预测性警务系统引起了人们对种族偏见的担忧,并且可能基于不充分或不完整的数据,从而使偏见循环嵌入到现有的警务实践中. Additionally, 自动驾驶汽车的伦理困境 have been discussed greatly.

深度造假技术的扩散, 在过去几年里,它在犯罪、广泛的人工智能监控和数据隐私泄露中的应用一直是大量报道和研究的主题. 这些例子告诉我们什么? 他们证明,为了成功地整合人工智能, 组织不仅要遵守现有的法规, 政府指导和网络安全原则,但也要确保负责任和道德的人工智能是他们创新的核心.


Protecting data and people

随着企业越来越多地转向人工智能, 必须强调开发机器学习模型所固有的数据保护风险. 这些模型通常需要访问大量的数据集, 经常包含敏感或个人信息的. 这些都受到GDPR和数据保护法的严格保护,在使用个人数据开发人工智能系统时,可能缺乏对风险管理和法律合规性的理解.

除了保护数据,企业还必须考虑使用人工智能对人的潜在影响. 欧盟委员会(European Commission)简洁地将这些担忧概括为人工智能的“不透明性”, complexity, bias, 一定程度的不可预测性和部分自主行为”. As a result, 企业必须探索将可解释性纳入模型的方法, 消除偏见和歧视的风险, 并实施保障措施,以减轻意外结果的后果. 为实现这一目标,应考虑以下概述的一些关键原则.


负责任AI的治理:关键原则

考虑到这些风险和道德问题, 企业应认真探索以下人工智能治理原则和建议. 这些方法寻求在促进创新的必要性与有效管理风险的道德和法律责任之间取得平衡.

  •  保障基本权利

AI and data protection law 由于对个人数据使用的道德担忧和人工智能系统中潜在的偏见而交织在一起. To overcome these challenges, 使用人工智能系统的组织应该考虑实现透明度等功能(遵守GDPR等数据保护立法), consent, 以及应对自动化决策对个人的潜在影响. 联邦学习等技术使人工智能模型能够在不暴露任何敏感数据和保护数据隐私的情况下对分散的数据进行训练.

  •  负责任、安全、透明、高效的开发和运营

人工智能系统的设计必须能够提供便利 端到端的问责、安全、透明  and efficiency. 要做到这一点,应该由人类进行定期审查. 此外,人工智能系统的内部工作应该对其利益相关者透明. 它应该能够证明其结果及其设计和使用背后的过程在道德上的允许性和公众的可信度. 为了确保完整性和平衡性,必须在系统计划中构建人在循环特性.

  • 遵守现行法例

组织内的人工智能系统应该在当前国家和国际法律的背景下进行评估. 此外,应审查任何新法律的适用性.   

人工智能治理政策的实施在英国尚处于起步阶段,随着该技术在公共和私营部门发挥越来越大的作用,将继续发展. 政府已在草案中阐明了一般原则 National AI Strategy, whilst the 在公共部门使用人工智能的指南,与…合作开发 Alan Turing Institute,提出了确保人工智能的道德和安全运营实施的方法.

 此外,还有一些国际准则:

明智的做法是,在现有国家指导方针的背景下审查组织的人工智能战略,并参考国际等效标准,以捕获尽可能多的不同角度. 这些指导方针可能会成为未来法律的基础.

  • 促进协作和可持续创新

创新、可持续性和协作 他们是否都在努力管理组织政策和实践的多个维度. In particular, 必须指出,可持续创新植根于合作努力, stakeholder integration, 在塑造创新实践的同时,考虑外部利益相关者的偏好也很重要. 这种合作对产生可持续创新的影响可以通过使用一个 可持续创新矩阵(SIM) leadership model.


What is the road ahead?

In navigating the path ahead, 企业必须通过承认排斥来承担责任, 在算法中嵌入公平性,并确保人工智能模型知道何时寻求人工输入. 成功安全地整合人工智能, 组织需要一个与现有和预期立法相一致的明确战略, 高道德标准和强有力的安全原则. 当然,这一战略需要不断发展,以应对不断变化的人工智能治理格局. 那些采用这种可持续方法的人将发现自己已经做好充分准备,可以利用人工智能的优势并从中获益.


How can 6point6 help?

在6point6,我们有一个既定的方法来支持我们的客户将人工智能纳入他们的业务.

  • 深入检讨业务,分析实施人工智能的需求
  • 了解组织的目标和目的,并使其与人工智能的需求保持一致
  • 对业务中这些变化可能带来的利弊进行深入的审查. 特别是,分析将人工智能纳入业务的有效性
  • 为技术变革准备员工能力
  • 构建、集成和测试新系统


Getting started

在当今世界,人工智能可以解决一系列问题,并提高许多行业的底线. 它还可以通过减少完成任务所需的时间和精力来提高业务效率,并使员工能够专注于更复杂和创新的业务方面.

如果您正在考虑将人工智能纳入您的业务,请十大网博靠谱平台以了解更多有关已证实的信息 6point6 以负责任的方式纳入人工智能的方法.




Aditi Ramachandran

Aditi Ramachandran

Aditi管理安全保证服务的交付, providing governance, risk, compliance, 为公共部门的客户提供信息保障. 我在网络安全领域工作了十多年, Aditi在信息风险管理和电子发现方面拥有丰富的经验, 凭借多年来在包括航空业在内的广泛领域工作所积累的专业知识, energy, insurance, financial services, and retail.

Subscribe to our newsletter

Sign up here