This topic has been archived. It cannot be replied.
-
工作学习 / 科技自然 / 2月7日,推特用户 @BoraBora 测试发现,分别使用简体、繁体询问ChatGPT同一问题会得到完全不同的答案,简中的回复为正面、繁中的回复为负面,原因未知。
-kw23(kw23);
2023-2-12
(#15188261@0)
+1
-
人会当面一套背后一套,机器不会,人会撒谎,啥故事都能编,机器不会
-fisingfan(fanny);
2023-2-12
(#15188291@0)
+4
-
说明你不懂人工智能
-hubeir(pct);
2023-2-12
(#15188324@0)
+8
-
说明你不懂人工智能
-fisingfan(fanny);
2023-2-12
(#15188349@0)
+2
-
你不懂
-firetrain(火车头);
2023-2-13
(#15190171@0)
-
人工智能相当于喂它读书,大量的书籍知识,它不停的读,不停的有新答案给你。不是谷歌那样,把答案存储起来,你每天问,回答的答案就被调出来给你所以都是一个样,不会变,明白了吗?
-kw23(kw23);
2023-2-12
(#15188519@0)
+2
-
如果分别用简中、繁中搜集到的资料来回答同一问题,结论不同很正常。当不同语言的资料有冲突时,我估计应该会以提问的语言为准。
-l4dream(梦非梦);
2023-2-13
(#15189525@0)
+2
-
说明你不懂AI, AI不是民主,不是人多说了算,而是基于事实的数据库,然后根据特定设计的公式计算打分,然后按照分数给出答案,比如给出90-100分数的答案,不存在你所谓简体繁体的问题,答案不同,但不可能文不对题,否则AI就存在设计的缺陷
-fisingfan(fanny);
2023-2-13
(#15189554@0)
+1
-
不懂装懂
-hubeir(pct);
2023-2-13
(#15189559@0)
+5
-
你懂你说,不懂就别在这大嘴巴
-fisingfan(fanny);
2023-2-13
(#15189562@0)
+1
-
我当然懂,但是懒得花时间教育粉红
-hubeir(pct);
2023-2-13
(#15189569@0)
+5
-
你要不要给楼主洗一洗看看你的队友是怎么洗出完全相反的答案?说不出来?那就别大嘴巴,一边玩去,
-fisingfan(fanny);
2023-2-13
(#15189575@0)
+1
-
别啊,看你晒无知,很有意思的
-hubeir(pct);
2023-2-13
(#15189667@0)
+3
-
露怯了?以后少发这种毫无意义嘴炮
-fisingfan(fanny);
2023-2-13
(#15189680@0)
+1
-
LOL你凭什么当然懂,懂王?
-dw9857101(大松鼠);
2023-2-13
(#15189681@0)
+2
-
洗衣液喝多了,LOL
-fisingfan(fanny);
2023-2-13
(#15189700@0)
+1
-
他懂什么,他最懂捧希特勒臭脚,并且以此为荣
-dayafterday(dream);
2023-2-13
(#15189720@0)
+2
-
我是不懂AI,只是从人类的角度考虑。比如抗日战争,我们出国前后看到的历史可能完全不一样,AI能确定谁在说谎吗?
-l4dream(梦非梦);
2023-2-13
(#15189688@0)
+1
-
AI不懂不会装懂,他会说不知道,AI的逻辑根据给的事实打分,太低的分数是不可能成为答案的,或者会给出两种答案让你自己判断
-fisingfan(fanny);
2023-2-13
(#15189693@0)
+1
-
国共两党大量的抗日历史文献,如果AI回答不知道,人文问题恐怕多数都是“不知道”了。
-l4dream(梦非梦);
2023-2-13
(#15189722@0)
+2
-
如果有冲突和争议,相反的答案会同时给出,让你自己选择,不会像楼主说的,不同人给出完全相反答案
-discord(discord);
2023-2-13
(#15189735@0)
-
我猜AI学到的简体字知识和繁体字知识是不一样的,对同一件事认知都可能是相反的。
-blueskygg(Grass);
2023-2-12
(#15188356@0)
-
应该不止这个例子。涉及政治的聊天,答案也都是人编造的。编造的人道德水平,政治倾向都影响着答案的结果。总而言之,Chat GPT仍然是人给软件编制档案库,供大家搜索答案的机器,离不开人的政治倾向和道德问题。不信,你问中国飘过美国的气球是间谍气球还是普通气象气球?不同语言给出的答案一定会不同的。
-liaison01(红桃A);
2023-2-12
{266}
(#15188357@0)
+1
-
正常啊,如果大陆台湾用户问都一个答案,那不是太傻了吗??
-dongji(冬季阳光);
2023-2-12
(#15188539@0)
+1
-
这很正常。那东西并没有多少智能,喂什么就吐什么。简体繁体的语料不同,产生的结果当然不同,再试试英文,更不一样了。
-haploidus(今剩叹);
2023-2-13
(#15189709@0)
+1
-
基本如此
-dw9857101(大松鼠);
2023-2-13
(#15189719@0)
-
华人社会正在去中国化,去简体化。
-firetrain(火车头);
2023-2-13
(#15190182@0)