|
# p* }: B6 a' V5 O, W" ?
IT之家 1 月 7 日消息,据科技媒体 Bleeping Computer 今天报道,谷歌搜索中的“AI 摘要”目前仍存在所谓“AI 幻觉”现象,经常会编造不实信息,并且还会就不同提问方法给出相互矛盾的答案。
( v7 e$ t6 I5 Y S ) c8 Q, Y6 r# y: S' `/ G. O& w
不过这种现象在以后很有可能逐步减少,最新招聘信息显示,谷歌正在招募工程师来验证 AI 给出的答案,并提升回答质量,重塑搜索体验。 ! d+ m8 H$ g0 g. X& D# N
谷歌在招聘简介中表示:“我们正在重新定义‘搜索信息’意味着什么。为此我们需要解决复杂的工程,并在扩展基础设施的同时,持续为全球用户提供实用的体验”。 & {' r8 K7 _7 t' {% c$ d/ ]! m5 X3 I
其中一个职位名为“AI 回答质量工程师”,将加入谷歌搜索团队,负责提升 AI 回答的整体质量,并重点聚焦“AI 摘要”。 ; d; r/ x7 ^) k5 b9 w
这也是谷歌首次公开承认“AI 摘要”仍有改进空间,而且这一招聘的发布时间点也耐人寻味。
6 N; E! J0 j; Q$ W, q5 q 谷歌最近正在为越来越多搜索引擎用户展示“AI 模式”和“AI 摘要”,并且还在 Discover 信息流中为新闻加入“AI 摘要”,甚至使用 AI 重写新闻标题。 , `, D1 m/ }3 B- d
而《卫报》曾指出,谷歌的“AI 摘要”在健康相关问题上经常给出误导性甚至完全错误的答案,虽然谷歌在过去几个月一直有提升答案质量,但用户往往会基于信任感完全认可谷歌展示的东西,因此这种出错率仍然有非常大的提升空间。 2 ?0 e! I+ n& ?' d
" x0 ~( G2 W' P' | `
2 x, x3 @0 ~# I6 ]- x: Y
# m8 ~. _* ~( N0 i- {9 [' K3 P( S# i' m
8 ~1 |5 k5 w) L# r. }8 u5 @" X
9 p! u! C: o3 r. |. d) ?
4 r6 L, Z: a, f, W5 o/ o U4 J8 h8 D b8 i' ?* @* L6 l
% V1 M Y, k& ?4 v; T
% } r: ?# S! e# t) O
6 D/ ^2 o# P. l0 r
# }& b8 i. F r# M! ]; K% z& }- T. ]- }% F2 c0 s$ B
( R% \9 ^% t# h/ x$ h
|