我看得出来,是审计鼠一种“数据殖民主义” ,
我问她,文化”她说 。把用她希望人工智能拥有一种审计文化,户当
布奥拉姆维尼表示,人工即所谓的需种小白基础模型 。”她说。审计鼠布奥拉姆维尼分享了她的文化人生故事。题为《性别阴影(Gender Shades)》 。把用公司可以展示对气候产生积极影响的户当模型和来源合法的数据 。他们声称他们的人工知识产权在未经同意的情况下被盗用。真正值得称赞的需种小白创新是,许多人工智能公司现在被艺术家 、审计鼠世界发生了很大变化 。人工智能需要一种审计文化 ,
“如果没有法律保护,一个特别值得关注的问题是 ,那么她今天会审计人工智能系统的哪些方面 。那这些东西就只能眼睁睁地被掠夺。这些多功能模型将成为许多其他人工智能应用程序(从聊天机器人到自动化电影制作)的跳板。其中不可避免地包括受版权保护的内容和个人信息 。她在很多方面都亲身体会了科技自那时以来已经取得的进步,自 1961 年以来,尤其是黑人女性。布奥拉姆维尼觉得这个封面很有趣。 我希望我们朝不同的方向前进 。
作为麻省理工学院的毕业生 ,我们给这么多公司发放了通行证 ,她与人工智能研究员蒂姆尼特·格布鲁(Timnit Gebru)共同撰写了一篇开创性论文 , 她呼吁对人工智能系统的构建方式进行彻底的重新思考 。而不是一次单一的审计 。在她的新回忆录《揭露人工智能:我在机器世界中保护人类的使命》中,
布奥拉姆维尼表示 ,这是 1961 年的一期 ,她似乎对我们伦敦办公室挂着的《麻省理工科技评论》的旧封面很感兴趣 。如果能重复“性别阴影”的成功 ,尤其是当这些系统的使用方式会影响人们的生活经历和生活机会时 。
它们是通过从互联网上抓取大量数据而构建的 ,音乐公司和作家起诉 ,而正是这个错误导致了偏见和压迫性技术的发展。她希望看到人工智能开发人员对他们提出的任何系统提出一些基本问题,
在这种文化中 ,该论文揭露了商业面部识别系统常常无法识别黑人和棕色人种的面孔,诗歌、以及它还需要走多远 。或者我们在赞扬创新的同时却不去注意伤害。以减少偏见 ,
布奥拉姆维尼最为人所知的事迹发生在 2017 年 ,她的研究和倡导促使谷歌、声音和专栏(甚至是博士论文)都会被人工智能模型“收入囊中” 。系统在部署到现实世界之前要经过严格的测试 。我们构建当今最亮眼的人工智能玩具的基础 ,而不是把用户当小白鼠 2023年10月30日 13:58 DeepTech深科技 新浪财经APP 缩小字体 放大字体 收藏 微博 微信 分享 腾讯QQ QQ空间
来源 :DeepTech深科技
著名人工智能研究员和活动家乔伊·布奥拉姆维尼(Joy Buolamwini)戴着她标志性的厚框眼镜 ,并且“完全无视同意(许可)”。 这就是我们该做的 。她完全相信自己的书 、我从中看到了从过去的许多错误中吸取教训的机会 。她认为在当前的人工智能炒作周期中 ,并不再向执法部门出售他们的技术。”她说。我一定会大声说出来。
“如果我发现我的任何成果被这些系统抓取 ,
“对于为先进技术提供动力的压迫性系统,在她波士顿的家中参加了我们的 Zoom 访谈。
现在 ,
“我担心的是 ,例如它是如何做到这一点的?我们是否应该使用它?
“现在我们处于豚鼠模式 ,在技术人员的设想中 ,布奥拉姆维尼有了新的目标 。 布奥拉姆维尼毫不犹豫地表示,她给它拍了一张照片。作为一名作家,
布奥拉姆维尼表示 ,人工智能公司目前的做法是不道德的 ,