原文:
towardsdatascience.com/how-to-navigate-ais-growing-social-footprint-7f896fff501b?source=collection_archive---------17-----------------------#2024-03-14
https://towardsdatascience.medium.com/?source=post_page---byline--7f896fff501b--------------------------------https://towardsdatascience.com/?source=post_page---byline--7f896fff501b-------------------------------- TDS Editors
·发表于 Towards Data Science ·发送至 Newsletter ·阅读时长 3 分钟·2024 年 3 月 14 日
–
我们已经生活在一个由强大算法系统塑造的世界中,而我们有效导航这些系统的能力,充其量是摇摇欲坠——而且很常情况下并非我们的错。
我们或许希望像蜘蛛侠的本叔那样思考:强大的力量伴随着巨大的责任;但在现实世界中,这两者并不总是同时到来。推动大多数人工智能创新的公司,往往急于发布产品,即使这些产品可能会扰乱生活、职业和经济,甚至 perpetuate harmful stereotypes;负责任的部署并非总是其创造者的首要任务。
为了帮助我们了解当前的状况——风险、局限性以及未来可能的方向——我们汇集了近期的一些优秀文章,探讨人工智能的社会足迹话题。从医学应用到内在偏见,这些文章都是很好的话题发起者,尤其对于那些最近才开始考虑这些问题的从业者来说,可能特别有帮助。
人工智能中的性别偏见(国际妇女节特刊)在上周的国际妇女节期间,Yennie Jun 发布了一篇时机恰到好处的文章,全面概述了目前关于大型语言模型中的性别偏见的研究现状,以及这个问题如何与其他问题以及潜在的盲点相关联,这些盲点隐藏在大型语言模型的光鲜外表之下。
人工智能在爱情(与战争)中是否公平?
聚焦于另一种偏见——种族和民族——Jeremy Neiman分享了他最近与 GPT-3.5 和 GPT-4 进行实验的发现,他让这些模型生成约会档案并扮演媒人角色,揭示了不同程度的种族偏见。
在 LLMs 中看到我们的倒影
LLMs 应该在多大程度上反映现实世界的现状,包括其中的缺陷?它是否应该美化历史和当前的社会结构,以减少表现中的偏见?Stephanie Kirmer邀请我们思考这些困难的问题,尤其是在 Google 的多模态模型 Gemini 生成了令人质疑的输出结果之后,比如种族多样的纳粹士兵。
https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/77fb56e1e5763f65c261ff95cb8a0ecb.png
图片来源:Denisse Leon 在Unsplash上的作品。
情感在循环中提到一个科幻与现实之间的界线变得越来越模糊的近未来,Tea Mustać想象了一位“扫描”过的人将会怎样生活,以及我们需要建立什么法律和道德框架:“当涉及到划定界限和决定什么可以或不可以,什么应该或不应该容忍时,做出这些决定的时钟正在缓慢但稳步地滴答作响。”
ChatGPT 不是医生
多年来,医务工作者不得不应对那些咨询过“谷歌医生”的病人,而如今他们还需要应对 ChatGPT 及类似工具所提供的不可靠建议。Rachel Draelos, MD, PhD的深度分析揭示了将诊断和治疗策略外包给通用聊天机器人所带来的明显与不明显的风险。
本周想扩展其他话题吗?我们希望如此——以下是一些值得阅读的顶级文章:
要了解全面的、一站式的提示工程入门,不要错过Anand Subramanian的首次 TDS 贡献。
通过跟随Ryan McDermott的解释,发现层次化可导航小世界(HNSW)的强大功能,以及如何在最近邻搜索中使用它们。
准备好退后一步,扩展你对人工智能历史与未来的认知了吗?Thu Vu为你推荐了七本书,值得加入你的阅读清单。
在一篇易于理解的教程中,P.G. Baumstarck邀请我们详细了解Torch 的随机梯度下降(SGD)优化器的内部工作原理。
大型语言模型(LLMs)已经成为非常流行的编程助手,但它们生成的代码到底有多可靠呢?Andrea Valenzuela概述了用户需要注意的一些主要不足之处。
感谢你支持我们作者的工作!如果你感到启发并想加入他们的行列,为什么不写下你的第一篇文章?我们期待阅读它。
直到下一个变量,
TDS 团队