登录×
电子邮件/用户名
密码
记住我
请输入邮箱和密码进行绑定操作:
请输入手机号码,通过短信验证(目前仅支持中国大陆地区的手机号):
请您阅读我们的用户注册协议隐私权保护政策,点击下方按钮即视为您接受。
FT商学院

What my AI baby means for misinformation in recruitment
AI胡扯可能使求职者受到歧视

Hirers are using chatbots to research candidates — but hallucinations mean convenience comes with risks
招聘人员正在使用聊天机器人来研究候选人——但AI“幻觉”意味着这种便利伴随风险。马斯克的Grok无端说我在休产假就是例证。

While job hunting recently, I asked a few artificial intelligence chatbots for summaries of my career. The resulting write-ups were broadly accurate. But there was one, glaring, error. 

最近在找工作的时候,我问了几款人工智能(AI)聊天机器人,请它们帮我总结一下我的职业生涯。它们提供的结果基本准确,但有一个明显错误。

According to Grok, Elon Musk’s “maximally truth-seeking” chatbot, Olivia Gagan (that’s me) “recently announced being on maternity leave, following the birth of her first child in 2025”. 

根据埃隆•马斯克(Elon Musk)旗下“追求极致真相”的聊天机器人Grok的说法,奥利维亚•加根(Olivia Gagan,就是我)“最近宣布她在休产假,此前她在2025年生下第一个孩子”。

This was news to me. I am not on maternity leave; nor am I a mother. There is no baby.

这对我来说是新闻。我不在休产假,也不是妈妈。根本没有宝宝。

版权声明:本文版权归FT中文网所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。

读者评论

用户名:
FT中文网欢迎读者发表评论,部分评论会被选进《读者有话说》栏目。我们保留编辑与出版的权利。
用户名
密码
设置字号×
最小
较小
默认
较大
最大
分享×