|
# @% \" B+ M; x& d IT之家 1 月 7 日消息,据科技媒体 Bleeping Computer 今天报道,谷歌搜索中的“AI 摘要”目前仍存在所谓“AI 幻觉”现象,经常会编造不实信息,并且还会就不同提问方法给出相互矛盾的答案。 4 q1 D( X/ o+ b
/ {! J: ?7 f- F, S9 ^$ \+ w0 }, W 不过这种现象在以后很有可能逐步减少,最新招聘信息显示,谷歌正在招募工程师来验证 AI 给出的答案,并提升回答质量,重塑搜索体验。 . n# _/ y# z2 \$ \6 O2 }: r
谷歌在招聘简介中表示:“我们正在重新定义‘搜索信息’意味着什么。为此我们需要解决复杂的工程,并在扩展基础设施的同时,持续为全球用户提供实用的体验”。 5 v4 @+ I" G; T) W; }5 L
其中一个职位名为“AI 回答质量工程师”,将加入谷歌搜索团队,负责提升 AI 回答的整体质量,并重点聚焦“AI 摘要”。 ! `3 x; m# z/ P" g
这也是谷歌首次公开承认“AI 摘要”仍有改进空间,而且这一招聘的发布时间点也耐人寻味。
# M7 F2 S, s7 G% F, t$ }' R 谷歌最近正在为越来越多搜索引擎用户展示“AI 模式”和“AI 摘要”,并且还在 Discover 信息流中为新闻加入“AI 摘要”,甚至使用 AI 重写新闻标题。
1 ^+ [% \# B& j# y3 Q% L+ [) u- N 而《卫报》曾指出,谷歌的“AI 摘要”在健康相关问题上经常给出误导性甚至完全错误的答案,虽然谷歌在过去几个月一直有提升答案质量,但用户往往会基于信任感完全认可谷歌展示的东西,因此这种出错率仍然有非常大的提升空间。
7 x3 ^7 |+ K* J; Z; N1 {, J
/ Y# `. W/ P- I* r/ W6 V1 s. ~1 T+ i# q( Z
) }% C+ N( S. @3 \9 V
2 T+ X$ b" r# A f
^4 v6 W+ K; I& R: r
8 s: l5 Y6 `+ c/ o3 a- E( m$ ^
. }# t/ o4 ~# F Z! P& H
* ?% I/ v5 j& @. t! c4 B8 S' R
" w9 F; q1 E6 Y% s% F) Z: F
9 A- g$ U" l- p9 @$ ]$ }+ \( L, w. I/ c( D
2 @5 M/ S; T! ~9 _$ T
+ G2 W H0 @: q) z! d3 Y2 V |