如何利用开源建立对人工智能的信任?
本文翻译自作者 Rebecca Whitworth 的文章 How to create trust in artificial intelligence using open source 打开 "黑匣子"有助于消除人工智能结果的不确定性,深入了解建模过程,识别偏差和错误。 人工智能(AI)在我们日常生活中的应用越来越频繁,Siri 和 Alexa 等 AI 系统在许多家庭中也变得很普遍。除此之外,许多家用设备本身就很"聪明",通过这些智能设备可以控制你的灯光、暖气和冷气,甚至播放音乐;而这些音乐播放器同样也由 AI 驱动,可以向你推荐歌曲和歌手。 然而,这些系统通常被称为"黑匣子"系统,因为我们不知道数据是如何处理的——用户怎么知道模型为什么会做出这样的预测?深度神经网络的出现和广泛采用,虽然提供了令人印象深刻的结果,但使这一点也变得更加关键,因为人类无法从逻辑上解释信息是如何在数千个神经元内处理的。 人工智能系统中对安全性要求更高的示例是,医生用它们来减少压力负荷。这些系统通过快速摄取数据来做到这一点,例如 AI 阅读和解析数千份医学期刊的速度可能比人类的速度快上数倍。然后这些数据...
