如今,人工智能(AI)非常先进,其主要目标是通过数据分析和机器学习模仿人类。更糟糕的是,AI技术的发展揭示了一些棘手的问题,包括AI生成内容中种族偏见的持续存在。《商业内幕》提供了一些由技术行业专业人员构建的AI系统中的种族偏见案例。其中许多偏见代表了一个巨大的问题,并且值得优先采取行动。
然而,也有一些情况下AI并不完美,其中可能包括一些悲剧,比如2016年微软的AI“Tay”的崩溃。设计师通过使用Twitter等社交网络平台,让这个名为Tay的机器人学习了不受欢迎的语言,导致机器人在仅仅一天后被终止。尽管自上世纪70年代以来,AI领域已经有了很大的发展,但与之相关的主要问题还没有完全消除。这个案例证明了在设计过程中对抗AI种族偏见的必要性。
当前的关注和行业回应
在IEEE Spectrum的一篇最新报道中,生成AI公司Knowbl的创始人Jay Wolcott提出了一个关键问题,即AI系统在决定参与的事务时必须尝试控制的限制是什么。另一方面,当AI所假设的完美设计的未来与现实生活的故事相对立时,这个问题可能揭示出更严重的问题。随着AI在许多领域的进步,特别是提出一种全面的策略来应对种族偏见的问题,这个问题值得更多的关注。
为了消除人工智能领域的种族歧视,行业应在设计AI解决方案和数据集训练过程中更加注重多样性和包容性。多元化的声音可以导致在构建新产品的过程中发现片面性或无意识的偏见。此外,严格的道德标准和治理体系是在部署后保证AI安全的防护措施。技术公司、政府机构和倡导组织之间的合作活动旨在为数字公平和公正的AI领域的未来创造条件。
确保透明度和问责制
AI算法的透明度是有效和有礼貌地实施AI的关键,有助于消除AI算法的偏见。组织应该公开展示AI系统如何做出决策,包括投诉和问责的途径。通过系统的审计和不公正的评估,我们可以发现和挑战代代相传的偏见。这些关键角色通过强调透明度和问责制的重要性,为建立对AI技术的必要信念和信心做出贡献。
由于AI中的种族偏见在伦理和公平使用这一技术方面引发了许多问题,因此这是其进一步发展的最重要问题。尽管人工智能对人类的好处是巨大的,但抗击偏见是主要任务。有了多样性的想法,将伦理学融入AI环境,并促进开放和透明,利益相关者可以拥有一个包容性的系统。行业的合作以及任何必要的纠正措施将消除种族偏见,并在AI中坚持公平和平等的原则至关重要。
新闻来源于《商业内幕》的一篇文章。