立正赫 wrote:
只有我覺得chatGPT...(恕刪)

答案是:你不會給指令,AI只能就你給出的指令去回答,AI不會去猜你腦袋在想甚麼,所以指令下錯、不完整、模糊,這樣AI給出的答案就有很高機率跟你想的答案不同,這時候就要反覆的修正你的提問,AI需要訓練,人下指令也是需要訓練,AI發展至今,如果多數人覺得好用,只有少數人覺得不好用,那一定就是少數人自己的問題
測試過幾次發現它的命盤都是錯的

感覺它的資料庫有問題

但其他部分都好用

要會問問題,要問重點

多用幾次就會問了
Angel9999
當然是跟人工排的對照啊,測試它跟app排出來的哪個跟老師排的一樣,命盤是很單純公式可以排的喔,我測試別的app排出來是對的,gpt 是錯的
Angel9999
用gpt 排盤一點都不奇怪,就是測試,但是gpt 在這部分很堅持它自己是對的,不信可以測看看
我這種基層員工的社會底層,使不明白chatGPT有什麼屁用~~

但是公司有幾個基層主管,不知從哪裏聽聞chatGPT可以幫忙寫論文!?

然後就一副勝券在握志得意滿的相約去讀研究所了~~

想不到世間竟然有這麼好康的事情,抄跑堅一定很嘔吧!

只能說,貧窮限制我的想像,也限制了我的長相~~
我發現問他一些比較創造性的需求 就出包概率較高

所以現在都讓他做一些比較直接性的工作
例如 某種程式語言轉成另一種 這種出錯的機率比較不高
立正赫
沒錯,類似這樣
指令要給對才會收到正確想要的資訊吧
有時候資訊還會給錯
文章分享
評分
評分
複製連結

今日熱門文章 網友點擊推薦!