|
B+ _; t. U8 t" q) C. ?5 ] G( L' U+ a, ] IT之家 1 月 7 日消息,据科技媒体 Bleeping Computer 今天报道,谷歌搜索中的“AI 摘要”目前仍存在所谓“AI 幻觉”现象,经常会编造不实信息,并且还会就不同提问方法给出相互矛盾的答案。
8 b6 G8 Y, ?8 ^& V4 \7 _ ; B8 t/ o" \& X7 n9 P* @ _
不过这种现象在以后很有可能逐步减少,最新招聘信息显示,谷歌正在招募工程师来验证 AI 给出的答案,并提升回答质量,重塑搜索体验。
: |( @4 X8 S0 o" c- l 谷歌在招聘简介中表示:“我们正在重新定义‘搜索信息’意味着什么。为此我们需要解决复杂的工程,并在扩展基础设施的同时,持续为全球用户提供实用的体验”。
$ V9 ~8 _! k3 k5 j; x# } 其中一个职位名为“AI 回答质量工程师”,将加入谷歌搜索团队,负责提升 AI 回答的整体质量,并重点聚焦“AI 摘要”。 2 g& d {0 L) c% e( g; I4 r
这也是谷歌首次公开承认“AI 摘要”仍有改进空间,而且这一招聘的发布时间点也耐人寻味。
; P1 h9 U- @* _, t8 R' n, l 谷歌最近正在为越来越多搜索引擎用户展示“AI 模式”和“AI 摘要”,并且还在 Discover 信息流中为新闻加入“AI 摘要”,甚至使用 AI 重写新闻标题。
9 I! |" s4 _6 i$ O9 L4 Y4 | 而《卫报》曾指出,谷歌的“AI 摘要”在健康相关问题上经常给出误导性甚至完全错误的答案,虽然谷歌在过去几个月一直有提升答案质量,但用户往往会基于信任感完全认可谷歌展示的东西,因此这种出错率仍然有非常大的提升空间。 : y% X( `+ R2 J- Q9 p# ~
9 A5 |5 U9 f+ O$ G
9 y; j( G; X6 _ X
) u3 U$ O% ~. }/ w) C! \% q- x
5 a% j V4 a6 S
7 u0 x0 c6 ]7 L5 B) H( U* Y! t2 k- H1 c5 |% h. d' ?
1 [' W! s4 f6 O# n8 M; W6 I
- m' s3 T- y; \! r9 i% x* i5 f
/ v* E8 A9 U9 R" p! \5 R/ i
/ G' t! t& S6 b7 v x J
( e6 m5 Z1 W# V$ f1 s/ G4 q6 y+ f5 E# a5 q1 A3 s
, v- ^9 d( f. y0 s! \
Q2 A. g' Y# P; \! J' _, C; p7 |7 u p |