|
: @& ?" L5 j$ p
IT之家 1 月 7 日消息,据科技媒体 Bleeping Computer 今天报道,谷歌搜索中的“AI 摘要”目前仍存在所谓“AI 幻觉”现象,经常会编造不实信息,并且还会就不同提问方法给出相互矛盾的答案。 ! p! {, a. M8 ^8 e- M* `6 j
) d4 u/ Y2 x+ E& X# ?/ D 不过这种现象在以后很有可能逐步减少,最新招聘信息显示,谷歌正在招募工程师来验证 AI 给出的答案,并提升回答质量,重塑搜索体验。 ) }$ _ L( W2 Z3 M0 R
谷歌在招聘简介中表示:“我们正在重新定义‘搜索信息’意味着什么。为此我们需要解决复杂的工程,并在扩展基础设施的同时,持续为全球用户提供实用的体验”。 , P I/ v! F' \
其中一个职位名为“AI 回答质量工程师”,将加入谷歌搜索团队,负责提升 AI 回答的整体质量,并重点聚焦“AI 摘要”。 . b! S( Y* m# L* e" K# R' ?7 [1 h
这也是谷歌首次公开承认“AI 摘要”仍有改进空间,而且这一招聘的发布时间点也耐人寻味。
$ O2 ]9 a* k: K/ W% b! z 谷歌最近正在为越来越多搜索引擎用户展示“AI 模式”和“AI 摘要”,并且还在 Discover 信息流中为新闻加入“AI 摘要”,甚至使用 AI 重写新闻标题。
; z. S8 I4 t$ f2 y. X& ? 而《卫报》曾指出,谷歌的“AI 摘要”在健康相关问题上经常给出误导性甚至完全错误的答案,虽然谷歌在过去几个月一直有提升答案质量,但用户往往会基于信任感完全认可谷歌展示的东西,因此这种出错率仍然有非常大的提升空间。
3 ^' A; v9 D4 L % u, i, D* Y0 K" Z8 W
; k# \5 F0 f5 k% g% h' `4 C & f4 [6 b. P! M/ G
& r. r" v3 H2 o9 \7 G- y O, O
" |7 _* P4 [; B2 {
" I; e( z$ [5 F
$ _9 M7 {' T( x/ o2 g( m% y9 B* T) R! o( F2 x
: F7 j7 \* h8 y! ]3 ~
/ P/ ~# [" q* `1 ^- |, a& P! A' s( P: `* _5 N9 x3 E% c* A9 V; q
0 x5 x4 @" G q6 E& b) x
8 C2 o3 j9 }9 U5 T/ s
: N u! C5 x. v, Z9 Z/ X |