當(dāng)前位置:
“人工智能算法”真的靠譜嗎?大量科技公司用人工冒充AI
時(shí)間:2025-11-22 05:45:24 出處:娛樂(lè)閱讀(143)
導(dǎo)讀:說(shuō)實(shí)話,人工很多時(shí)候你以為是算法人工智能,但其實(shí)屏幕的靠譜科技海口外圍空姐(電話微信181-8279-1445)海口真實(shí)可靠快速安排那一邊是個(gè)真實(shí)存在的人,而不是大量什么算法。
科技公司正在悄悄地用人工來(lái)代替人工智能。公司工冒

建立起一個(gè)全部由人工智能驅(qū)動(dòng)的用人服務(wù)系統(tǒng)是很困難的。事實(shí)上,人工一些創(chuàng)業(yè)公司發(fā)現(xiàn),算法讓人類(lèi)像機(jī)器人一樣工作比讓機(jī)器像人類(lèi)一樣工作更容易、靠譜科技成本也更低。大量
“使用人工完成某些工作可以讓公司不用應(yīng)付大量的公司工冒技術(shù)和業(yè)務(wù)開(kāi)發(fā)挑戰(zhàn)。很明顯,用人這么做不具有規(guī)模性,人工海口外圍空姐(電話微信181-8279-1445)海口真實(shí)可靠快速安排但你確實(shí)可以在一開(kāi)始直接越過(guò)很多困難的算法部分,”ReadMe的靠譜科技首席執(zhí)行官Gregory Koberger說(shuō),他說(shuō)他遇到了很多“偽人工智能”。
《華爾街日?qǐng)?bào)》(Wall Street Journal)本周發(fā)表的一篇文章將此類(lèi)事件推到了了風(fēng)口浪尖,文中著重介紹了谷歌對(duì)數(shù)百名第三方應(yīng)用程序開(kāi)發(fā)人員訪問(wèn)人們的郵箱大開(kāi)綠燈。
總部位于圣何塞的Edison Software公司,其人工智能工程師對(duì)數(shù)百名用戶(hù)的個(gè)人電子郵件信息進(jìn)行了修改,修改了他們的身份,以改進(jìn)“智能回復(fù)”功能。但并未提及這一行為是否侵犯了用戶(hù)的隱私權(quán)。
《華爾街日?qǐng)?bào)》刊載的文章中還強(qiáng)調(diào),此種針對(duì)郵箱信息的行為遠(yuǎn)非第一次。2008年,將語(yǔ)音郵件轉(zhuǎn)換為短信的Spinvox公司被指控在海外呼叫中心使用人類(lèi)而不是機(jī)器來(lái)完成工作。
2016年,《彭博商業(yè)周刊》揭露了有些公司雇人每天花12個(gè)小時(shí)假裝聊天機(jī)器人或者智能助手,為客戶(hù)進(jìn)行日程安排等服務(wù)。這是一份令人麻木而疲憊的工作,員工們紛紛表示他們真的期待有機(jī)器人頂替自己的位置。
2017年,企業(yè)費(fèi)用管理程序提供商Expensify公司承認(rèn),它此前聲稱(chēng)的使用“Smart Scan”技術(shù)的收據(jù)處理工作,至少有一部分是人工完成的。這些收據(jù)的掃描結(jié)果被發(fā)給了亞馬遜的Mechanical Turk公司,在這家公司的眾包勞動(dòng)工具上,這些收據(jù)其實(shí)是由低薪酬雇來(lái)的員工們處理并謄寫(xiě)的。
“我想知道,那些使用了Expensify公司Smart Scan產(chǎn)品的用戶(hù)是否知道它們的數(shù)據(jù)是由MTurk的員工輸入的,”Rochelle LaPlante說(shuō),他正是一個(gè)Turk公司的一員,“我可以查看某個(gè)人的優(yōu)步收據(jù),上面有他們的全名和接送地址。”
就連在人工智能領(lǐng)域投入巨資的Facebook,也依賴(lài)“偽人工智能”的服務(wù)。
在某些情況下,人類(lèi)被用來(lái)訓(xùn)練人工智能系統(tǒng)并提高它的準(zhǔn)確性。一家名為Scale的公司為一群人類(lèi)員工提供了自動(dòng)駕駛汽車(chē)和其他人工智能驅(qū)動(dòng)系統(tǒng)的培訓(xùn)數(shù)據(jù)。例如,人工智能訓(xùn)練人員會(huì)查看攝像頭或傳感器,并標(biāo)注汽車(chē)、行人和騎自行車(chē)的人。有了足夠的人工校準(zhǔn),人工智能將學(xué)會(huì)識(shí)別這些物體本身。
但在其他情況下,公司會(huì)謊稱(chēng)自己已經(jīng)在使用人工智能了,然后告訴投資者和用戶(hù)說(shuō)自己已經(jīng)開(kāi)發(fā)出了便利的人工智能服務(wù),但私下里卻在秘密地依賴(lài)真人。
Gregory Koberger(@gkoberger)
如建立一個(gè)人工智能創(chuàng)業(yè)公司?
首先,雇傭一批廉價(jià)勞動(dòng)力,讓他們假裝自己是人工智能,然后為客戶(hù)提供服務(wù);
其次,等著人工智能真的被發(fā)明出來(lái)。
March 1, 2016
心理學(xué)家、Woebot(一種旨在解決人們心理健康問(wèn)題的聊天機(jī)器人)的創(chuàng)始人Alison Darcy將其稱(chēng)為為“奧茲國(guó)設(shè)計(jì)技術(shù)的巫師”。
“說(shuō)實(shí)話,很多時(shí)候你以為是人工智能,但其實(shí)屏幕的那一邊是個(gè)真實(shí)存在的人,而不是什么算法,”她補(bǔ)充說(shuō),要想建立起良好的人工智能系統(tǒng),“大量的數(shù)據(jù)”不可或缺,而很多時(shí)候設(shè)計(jì)師們?cè)谕顿Y之前,會(huì)想知道是否有足夠的服務(wù)需求。
她說(shuō),這種方法不適用于像Woebot這樣的心理服務(wù)。
“作為心理學(xué)家,我們受到道德準(zhǔn)則的約束。而不欺騙是很明顯的道德準(zhǔn)則之一。”
研究表明,當(dāng)人們認(rèn)為自己是在和機(jī)器交談而不是與人交談時(shí),他們往往會(huì)透露更多信息,因?yàn)閷で笮睦斫】祹椭鷷?huì)帶來(lái)一種恥辱感。
來(lái)自南加利福尼亞大學(xué)(University of Southern California)的一個(gè)研究小組通過(guò)一個(gè)名為Ellie的虛擬治療師測(cè)試了這個(gè)結(jié)果。他們發(fā)現(xiàn),當(dāng)退伍軍人知道Ellie是人工智能系統(tǒng)時(shí),他們更容易打開(kāi)心扉,說(shuō)出自己的癥狀。
另一些人則認(rèn)為,公司應(yīng)該對(duì)其服務(wù)的運(yùn)作方式始終保持透明。
一家用人工假裝人工智能提供服務(wù)的公司的員工LaPlante說(shuō):“我不喜歡這樣,對(duì)我來(lái)說(shuō),這是不誠(chéng)實(shí)的。而且就工作方面講,我們感覺(jué)自己被雪藏了起來(lái)。自己的價(jià)值并沒(méi)有得到重視。我不喜歡我的勞動(dòng)被這種對(duì)客戶(hù)滿口謊言的公司利用。”
其實(shí),在人工智能自己是人類(lèi)并提供服務(wù)的時(shí)候,同樣引發(fā)了這種道德上的困惑。最典型的例子莫過(guò)于例子是谷歌的這是一個(gè)機(jī)器人助手Duplex,它可以用“嗯”和“呃”等詞句來(lái)完成極其逼真的對(duì)話和預(yù)約。
經(jīng)歷了強(qiáng)烈反對(duì)之后,谷歌表示自己的人工智能助手會(huì)向交談過(guò)的人類(lèi)表明自己的真實(shí)身份。
Darcy說(shuō):“在這種低影響的對(duì)話中,你可能會(huì)覺(jué)得這么點(diǎn)兒小花招無(wú)傷大雅。”
但是,如果這種瞞天過(guò)海的技術(shù)被一些別有用心的人用來(lái)做一些違法亂紀(jì)的事情呢?
Darcy說(shuō):“考慮到人工智能已經(jīng)讓人產(chǎn)生了很大的恐懼,在缺乏透明度的情況下,它更不能真正幫助人們進(jìn)行對(duì)話了。”
科技公司正在悄悄地用人工來(lái)代替人工智能。公司工冒

建立起一個(gè)全部由人工智能驅(qū)動(dòng)的用人服務(wù)系統(tǒng)是很困難的。事實(shí)上,人工一些創(chuàng)業(yè)公司發(fā)現(xiàn),算法讓人類(lèi)像機(jī)器人一樣工作比讓機(jī)器像人類(lèi)一樣工作更容易、靠譜科技成本也更低。大量
“使用人工完成某些工作可以讓公司不用應(yīng)付大量的公司工冒技術(shù)和業(yè)務(wù)開(kāi)發(fā)挑戰(zhàn)。很明顯,用人這么做不具有規(guī)模性,人工海口外圍空姐(電話微信181-8279-1445)海口真實(shí)可靠快速安排但你確實(shí)可以在一開(kāi)始直接越過(guò)很多困難的算法部分,”ReadMe的靠譜科技首席執(zhí)行官Gregory Koberger說(shuō),他說(shuō)他遇到了很多“偽人工智能”。
《華爾街日?qǐng)?bào)》(Wall Street Journal)本周發(fā)表的一篇文章將此類(lèi)事件推到了了風(fēng)口浪尖,文中著重介紹了谷歌對(duì)數(shù)百名第三方應(yīng)用程序開(kāi)發(fā)人員訪問(wèn)人們的郵箱大開(kāi)綠燈。
總部位于圣何塞的Edison Software公司,其人工智能工程師對(duì)數(shù)百名用戶(hù)的個(gè)人電子郵件信息進(jìn)行了修改,修改了他們的身份,以改進(jìn)“智能回復(fù)”功能。但并未提及這一行為是否侵犯了用戶(hù)的隱私權(quán)。
《華爾街日?qǐng)?bào)》刊載的文章中還強(qiáng)調(diào),此種針對(duì)郵箱信息的行為遠(yuǎn)非第一次。2008年,將語(yǔ)音郵件轉(zhuǎn)換為短信的Spinvox公司被指控在海外呼叫中心使用人類(lèi)而不是機(jī)器來(lái)完成工作。
2016年,《彭博商業(yè)周刊》揭露了有些公司雇人每天花12個(gè)小時(shí)假裝聊天機(jī)器人或者智能助手,為客戶(hù)進(jìn)行日程安排等服務(wù)。這是一份令人麻木而疲憊的工作,員工們紛紛表示他們真的期待有機(jī)器人頂替自己的位置。
2017年,企業(yè)費(fèi)用管理程序提供商Expensify公司承認(rèn),它此前聲稱(chēng)的使用“Smart Scan”技術(shù)的收據(jù)處理工作,至少有一部分是人工完成的。這些收據(jù)的掃描結(jié)果被發(fā)給了亞馬遜的Mechanical Turk公司,在這家公司的眾包勞動(dòng)工具上,這些收據(jù)其實(shí)是由低薪酬雇來(lái)的員工們處理并謄寫(xiě)的。
“我想知道,那些使用了Expensify公司Smart Scan產(chǎn)品的用戶(hù)是否知道它們的數(shù)據(jù)是由MTurk的員工輸入的,”Rochelle LaPlante說(shuō),他正是一個(gè)Turk公司的一員,“我可以查看某個(gè)人的優(yōu)步收據(jù),上面有他們的全名和接送地址。”
就連在人工智能領(lǐng)域投入巨資的Facebook,也依賴(lài)“偽人工智能”的服務(wù)。
在某些情況下,人類(lèi)被用來(lái)訓(xùn)練人工智能系統(tǒng)并提高它的準(zhǔn)確性。一家名為Scale的公司為一群人類(lèi)員工提供了自動(dòng)駕駛汽車(chē)和其他人工智能驅(qū)動(dòng)系統(tǒng)的培訓(xùn)數(shù)據(jù)。例如,人工智能訓(xùn)練人員會(huì)查看攝像頭或傳感器,并標(biāo)注汽車(chē)、行人和騎自行車(chē)的人。有了足夠的人工校準(zhǔn),人工智能將學(xué)會(huì)識(shí)別這些物體本身。
但在其他情況下,公司會(huì)謊稱(chēng)自己已經(jīng)在使用人工智能了,然后告訴投資者和用戶(hù)說(shuō)自己已經(jīng)開(kāi)發(fā)出了便利的人工智能服務(wù),但私下里卻在秘密地依賴(lài)真人。
Gregory Koberger(@gkoberger)
如建立一個(gè)人工智能創(chuàng)業(yè)公司?
首先,雇傭一批廉價(jià)勞動(dòng)力,讓他們假裝自己是人工智能,然后為客戶(hù)提供服務(wù);
其次,等著人工智能真的被發(fā)明出來(lái)。
March 1, 2016
心理學(xué)家、Woebot(一種旨在解決人們心理健康問(wèn)題的聊天機(jī)器人)的創(chuàng)始人Alison Darcy將其稱(chēng)為為“奧茲國(guó)設(shè)計(jì)技術(shù)的巫師”。
“說(shuō)實(shí)話,很多時(shí)候你以為是人工智能,但其實(shí)屏幕的那一邊是個(gè)真實(shí)存在的人,而不是什么算法,”她補(bǔ)充說(shuō),要想建立起良好的人工智能系統(tǒng),“大量的數(shù)據(jù)”不可或缺,而很多時(shí)候設(shè)計(jì)師們?cè)谕顿Y之前,會(huì)想知道是否有足夠的服務(wù)需求。
她說(shuō),這種方法不適用于像Woebot這樣的心理服務(wù)。
“作為心理學(xué)家,我們受到道德準(zhǔn)則的約束。而不欺騙是很明顯的道德準(zhǔn)則之一。”
研究表明,當(dāng)人們認(rèn)為自己是在和機(jī)器交談而不是與人交談時(shí),他們往往會(huì)透露更多信息,因?yàn)閷で笮睦斫】祹椭鷷?huì)帶來(lái)一種恥辱感。
來(lái)自南加利福尼亞大學(xué)(University of Southern California)的一個(gè)研究小組通過(guò)一個(gè)名為Ellie的虛擬治療師測(cè)試了這個(gè)結(jié)果。他們發(fā)現(xiàn),當(dāng)退伍軍人知道Ellie是人工智能系統(tǒng)時(shí),他們更容易打開(kāi)心扉,說(shuō)出自己的癥狀。
另一些人則認(rèn)為,公司應(yīng)該對(duì)其服務(wù)的運(yùn)作方式始終保持透明。
一家用人工假裝人工智能提供服務(wù)的公司的員工LaPlante說(shuō):“我不喜歡這樣,對(duì)我來(lái)說(shuō),這是不誠(chéng)實(shí)的。而且就工作方面講,我們感覺(jué)自己被雪藏了起來(lái)。自己的價(jià)值并沒(méi)有得到重視。我不喜歡我的勞動(dòng)被這種對(duì)客戶(hù)滿口謊言的公司利用。”
其實(shí),在人工智能自己是人類(lèi)并提供服務(wù)的時(shí)候,同樣引發(fā)了這種道德上的困惑。最典型的例子莫過(guò)于例子是谷歌的這是一個(gè)機(jī)器人助手Duplex,它可以用“嗯”和“呃”等詞句來(lái)完成極其逼真的對(duì)話和預(yù)約。
經(jīng)歷了強(qiáng)烈反對(duì)之后,谷歌表示自己的人工智能助手會(huì)向交談過(guò)的人類(lèi)表明自己的真實(shí)身份。
Darcy說(shuō):“在這種低影響的對(duì)話中,你可能會(huì)覺(jué)得這么點(diǎn)兒小花招無(wú)傷大雅。”
但是,如果這種瞞天過(guò)海的技術(shù)被一些別有用心的人用來(lái)做一些違法亂紀(jì)的事情呢?
Darcy說(shuō):“考慮到人工智能已經(jīng)讓人產(chǎn)生了很大的恐懼,在缺乏透明度的情況下,它更不能真正幫助人們進(jìn)行對(duì)話了。”
分享到:
溫馨提示:以上內(nèi)容和圖片整理于網(wǎng)絡(luò),僅供參考,希望對(duì)您有幫助!如有侵權(quán)行為請(qǐng)聯(lián)系刪除!
猜你喜歡
- FromSoftware官方招聘暗示《裝甲核心6》或?qū)⑼瞥鯠LC
- 研究揭示月巖形成的新線索,解決月球地質(zhì)學(xué)的主要難題
- 《戰(zhàn)役與文明》尾曝抵觸:對(duì)戰(zhàn)贏特別戰(zhàn)術(shù)
- 《牧場(chǎng)物語(yǔ) Welcome!好美人逝世》遺記之谷預(yù)報(bào)片
- 被捉弄的大灰狼的故事
- 矮星系Nube,挑戰(zhàn)暗物質(zhì)模型的幾乎看不見(jiàn)的星系
- 《戰(zhàn)役機(jī)器》電影編劇敲定 《沙丘》編劇減盟
- 《餓狼傳說(shuō):群狼都市》全新參戰(zhàn)角色“凱文里安”P(pán)V發(fā)布