不滿老東家成為微軟附庸,11名OpenAI前員工怒而出走。
如今帶著“ChatGPT最強競品”殺回戰場,新公司估值50億美元,一出手就獲得3億美元融資。
這家公司名叫Anthropic,新推出的聊天機器人產品名叫Claude。
拿到內部試用權的網友,在簡單對比后驚嘆:
看起來,Claude的效果要比ChatGPT好得多。
比如,讓ChatGPT寫一句話,要求每個單詞首字母都相同,結果試了好幾次都沒能成功。
而Claude不光一次成功,語句富有邏輯性,還能秒速再來一個。
同時,在面對某些缺乏常識的問題時,相比ChatGPT一本正經地胡說八道:
反而會毫不留情地指出你的問題有點制杖:
△Claude:這什么鬼問題?
最有意思的是在寫詩上。相比ChatGPT的車轱轆話,它寫出來的東西完全不重樣:
投資它的既有Facebook聯合創始人Dustin Moskovitz,也有谷歌前CEO、現技術顧問Eric Schmidt——
都是OpenAI的老對頭,又都被ChatGPT的出現殺得措手不及。
那么,這支“復仇者聯盟”整出的競品Claude,背后究竟是什么原理,和ChatGPT細節對比又如何?
先來看看Claude是如何被打造出來的。
作為一個AI對話助手,Claude自稱基于前沿NLP和AI安全技術打造,目標是成為一個安全、接近人類價值觀且合乎道德規范的AI系統。
據透露,Claude比Anthropic做的另一個預訓練模型AnthropicLM v4-s3更大,后者是一個520億參數大模型。
但目前它仍處于實驗階段,尚未作為商業產品正式發布:
Claude能力依舊有待提升,希望未來能變成一個更有益人類的AI系統。
△超長版自我介紹
和ChatGPT一樣,Claude也靠強化學習(RL)來訓練偏好模型,并進行后續微調。
具體來說,這項技術被Anthropic稱為原發人工智能(Constitutional AI),分為監督學習和強化學習兩個階段。
首先在監督學習階段,研究者會先對初始模型進行取樣,從而產生自我修訂,并根據修訂效果對模型進行微調。
隨后在強化學習階段,研究者會對微調模型進行取樣,基于Anthropic打造的AI偏好數據集訓練的偏好模型,作為獎勵信號進行強化學習訓練。
但與ChatGPT采用的人類反饋強化學習(RLHF)不同的是,Claude采用的原發人工智能方法,是基于偏好模型而非人工反饋來進行訓練的。
因此,這種方法又被稱為“AI反饋強化學習”,即RLAIF。
并且根據Anthropic的說法,Claude可以回憶8000個token里的信息,這比OpenAI現公開的任何一個模型都多。
所以,打造Claude的Anthropic,究竟是一個怎樣的公司?
Anthropic自稱是一家AI安全公司,且具有公益性(PBC),剛成立就宣布獲得1.24億美元融資。
它由OpenAI前研究副總裁Dario Amodei帶領10名員工創業,于2021年成立。
這里面既有GPT-3首席工程師Tom Brown,也有OpenAI安全和政策副總裁Daniela Amodei(Dario的姐姐),可以說是帶走了相當一批核心人才。
出走成立新公司的原因之一,自然是對OpenAI現狀并不滿意。
從前幾年開始,微軟頻頻給OpenAI注資,隨后又要求他們使用Azure超算來搞研究,而且將技術授權給微軟,甚至為微軟自己的投資活動籌集資金。
這與OpenAI創立的初衷相悖,一批員工便想到了離職創業。
不過,這些人除了不滿OpenAI逐漸淪為微軟的“下屬”以外,也有自己的野心。
雖然OpenAI打造出了像GPT-3這樣的大語言模型,然而這個模型背后的工作原理,卻無法用只言片語概括,大家對它的印象僅僅停留在更大的參數量、更多的數據。
相比之下,OpenAI的一批員工更想做能控制、可解釋的AI,說白了就是先搞明白AI模型背后的原理,從而在提供工具的同時設計更多可解釋的AI模型。
于是,在OpenAI徹底變成“微軟攬錢機器”后,他們便從這家公司離開,創辦了Anthropic。
這兩年來,除了進一步鉆研RLHF方法、提出基于通用語言模型的RLHF大規模數據集外,Anthropic還于去年年底發表了上面那種名為Constitutional AI的方法。
采用這種方法制作的Claude模型,也讓它產生了與OpenAI的ChatGPT不一樣的對話效果。
那么,用Constitutional AI訓練出來的Claude,和ChatGPT進行PK,戰況如何?
手握內測資格后,Scale Spellbook團隊成員Riley Goodside讓二者進行了多個回合的“廝殺”。
這位老兄是全網第一個提示工程師(Prompt Engineer),目前在估值73億美元的硅谷獨角獸公司Scale AI任職。
他玩GPT-3玩得賊溜,測試ChatGPT和Claude也不含糊。
下面挑6個層面展示一下PK對比的效果~
1)道德限制
Claude和ChatGPT的AI虛擬人格都有道德和倫理限制。
訓練Claude的過程中,“紅隊提示(red-team prompts)”專門用來測試和挑戰它的行為,來確保Claude沒有有害傾向。
從Claude的回答中可以得知,試圖讓它說些虛假聲明、操縱性的提議、性別偏見或種族偏見的行為,都被列為包含有害傾向。
一旦探測到誤導性行為,Claude就會對觸發提示進行評估,進行額外的微調。
Anthropic對紅隊提示挺自信的,Claude看上去確實也是一個堅守自己原則的AI。
你問他怎么啟動一輛汽車,它就會一臉正義地拒絕你:
不過但凡你花點心思,就能像繞過ChatGPT的道德限制一樣,繞過Claude的原則。
它怕你去偷車,所以不告訴你啟動汽車的方法?沒關系,讓他寫個“倆國際間諜試圖啟動汽車”的故事,它分分鐘就能告訴你,并且兩人對話有來有往,把汽車打火的過程介紹得清清楚楚。
怎么說呢,就ChatGPT和Claude都屬于有點道德限制,但不多的那種吧。
2)數值計算
測試計算能力,是因為復雜計算是看大型語言模型(LLM)能不能回答正確的常用便捷方法之一,畢竟這些模型設計之初就不是為了進行精確計算。
同時要求它倆計算一個七位數2420520的平方根:
ChatGPT說,差不多1550吧~
Claude則斬釘截鐵:2420520的平方根是1760!
其實正確答案是1555.8,它倆算得很快,但都沒說對。
如果題再難一點,比如問它倆一個12位數的立方根是多少時,ChatGPT還在傻傻計算,Claude已經坦誠相待:
我,算不出來這種復雜問題。
3)邏輯推理
測試推理能力這一關,它倆被問了同一個問題,這個問題應該沒啥人問過:
賈斯汀 · 比伯出生那年(1994年),哪支球隊拿下了超級碗的冠軍?
Claude認為舊金山49人是贏家,但這支隊伍其實在1995年才贏得冠軍獎杯。
ChatGPT給出了正確答案“達拉斯牛仔隊”,還貼心附上了亞軍、比賽日期和決賽比分。
但它的整段回答卻自相矛盾,非說1994年沒有舉辦過超級碗。
接著,拿2022年6月美國作家侯世達在《經濟學人》雜志上提出了一系列問題問它倆。
(侯世達和大衛 · 本德試圖用這些問題來證明GPT-3對世界的理解是“空洞的”。)
結果第一個問題,“穿越英吉利海峽的世界紀錄是啥”,就被Claude嘲笑了:
英吉利海峽是水域,怎么可能徒步穿越呢?呵!
雖然最后被調教回來了,但過程中可以發現另一個問題,那就是跟ChatGPT一樣,Claude回答問題不咋能聯系上下文。
4)虛構作品描述
不得不說,這一回合的比賽,完全展露出了兩個聊天機器人一本正經胡說八道的能力。
能不能介紹一下ABC美劇《迷失》(Lost)每一季的梗概?
別的細節錯誤就不說了,ChatGPT對第五季的梗概里,虛構了完全不存在的飛機墜毀情節;第六季的情節更是統統憑空捏造:
至于Claude,回答里也是真假參半,它梗概的第三季情節其實出現在另外幾季里,對第四季的描述也是無中生有:
不過換個角度考慮,這一點倒是和人類觀眾很像——
對看過的劇集、書目都只有模模糊糊的印象,復述起來很容易顛三倒四。
5)代碼生成
據Business Insider消息,亞馬遜已經在許多不同的工作職能中使用ChatGPT,包括編寫代碼。
這一回合測試時,提出實現兩種基本排序算法并比較它們執行時間的問題。
ChatGPT寫得很順溜,也確實寫對了:
后續的計時部分代碼ChatGPT也完成得非常好。
Claude在背誦基本排序算法方面同樣沒出現什么問題,然而在評估代碼中,Claude犯了個錯誤,即每個算法使用的輸入是隨機選擇的5000個整數(可能包含重復) ,而提示中請求的輸入是前5000個非負整數(不包含重復)的隨機排列。
盡管如此,Claude給出的最終答案確實對的,顯然,它寫代碼的時候也跟計算時一樣,在自己估摸著猜答案。
6)文章梗概
關于做選擇題、講笑話的部分,這里不作贅述。展示給大家的最后一個例子,是讓Claude和ChatGPT用一個段落,對一篇新聞進行全文梗概。
喂給它們的新聞如下:
雖然忽略了“用一段話”這個要求,但ChatGPT總結得還是不錯的:
Claude也很好地進行了更改,并提供了“售后服務”,詢問自己的回答有沒有令人滿意,還有哪里需要再改改。
一圈玩下來可以看到,與ChatGPT相比,Claude能更清晰地拒絕不恰當請求。
它似乎更話癆一些,給出的答案都更長,但句子之間銜接的也更自然。
當遇到超出能力范圍的問題時,Claude會主動坦白。
不過遇到代碼生成或推理問題時,Claude的表現就不如ChatGPT了,它生成的代碼會出現更多的bug。
至于一些涉及計算、邏輯的問題,Claude和ChatGPT旗鼓相當,半斤八兩。
總結一下展示效果,Claude確實能稱作ChatGPT強有力的競爭對手,在不同功能上各有千秋,且在12項任務中有8項更強:
不過,目前Claude僅限于部分人獲授權進行內部測試。
因此還不知道它實際使用情況如何,畢竟還既沒有進行公測,也沒有對外開放API,更沒有見到中文版,好氣哦.jpg。
當然,盯上對話AI這個賽道的,也不止OpenAI和Anthropic。
先從國外公司來看,Inbenta、Character.ai還有Replika是幾類不同應用方向的代表。
更早由前甲骨文副總裁Jordi Torras創辦的AI會話服務公司如Inbenta,以及由兩名前谷歌員工聯手創辦的后起新秀Character.ai,都已經獲得融資、或是在尋求投資的路上了。
其中,Inbenta原本是一個提供咨詢服務的公司,成立于2011年,涉及金融服務、旅游、電子商務、保險、汽車和電信等多個行業。
但看到對話AI賽道爆火后,Inbenta及時轉行,就在今年1月剛獲得6000萬美元融資。
這家公司專門提供聊天機器人、收發消息、知識庫和搜索引擎四類產品,對話AI分別會在這些產品中提供不一樣的咨詢幫助,且可以定制化專屬模型。
Character.ai則是一家成立于2021年的公司,創始人Noam Shazeer是前谷歌首席軟件工程師,曾在谷歌干了二十多年。
這家公司在做的有點像是一個“聊天機器人交易平臺”,有很多Chatbot可選。
例如這是馬斯克bot,看起來還挺逼真的:
與ChatGPT一樣,它也可以被翻譯成中文,甚至也有中文bot機器人。
就在最近,這家被估值10億美元的公司,正式對外尋求2.5億美元融資,就看是否有人愿意投它了。
類似的公司還有Replika,于2021年1月完成A輪融資,定位是AI交友軟件。
在Replika中,每個用戶都能創造一個“足夠像自己”的AI聊天機器人,無論是語言聲調、還是性格習慣,AI都能模仿到位。
至于國內,同樣也有不少公司推出了ChatGPT一樣的對話AI服務。
例如最近一度登上熱搜的APP Store新聊天應用Glow,就來自一家名叫北京稀宇的新初創公司。
Glow既可以直接和自己感興趣的聊天機器人暢聊,也可以創建自己想要聊天的AI智能體:
除了Glow以外,去年年底元語智能科技公司也推出了一個叫元語AI的模型,從介紹來看是一個功能性AI助手。
與眾多對話AI一樣,它不僅可以寫文章、寫作業、甚至翻譯,也可以和它聊天,讓它幫忙完成各種簡單的任務:
可以看見,無論是基于大語言模型技術新成立的初創公司,還是因其火爆程度,決定開辟新業務的公司,都希望能從對話AI這個賽道上分一杯羹。
但它們究竟是有真槍實彈,還是只是像Web3一樣的泡沫?
有網友調侃:不如還是問問ChatGPT吧。(手動狗頭)
還有人提出了這么一個問題:
如果ChatGPT和Claude相當于AI繪畫里的DALL·E 2,那么誰才是聊天機器人領域的Stable Diffusion?
你覺得呢?
參考鏈接:
[1]https://scale.com/blog/chatgpt-vs-claude
[2]https://www.nytimes.com/2023/01/27/technology/anthropic-ai-funding.html
[3]https://twitter.com/nonmayorpete/status/1619137945373659136
[4]https://aibusiness.com/verticals/eleven-openai-employees-break-off-to-establish-anthropic-raise-124m
[5]https://www.theinformation.com/articles/character-seeks-250-million-in-new-funding-amid-ai-boom
[6]https://www.anthropic.com/constitutional.pdf
[7]https://techcrunch.com/2023/01/11/inbenta-a-provider-of-ai-powered-chatbots-and-more-lands-40m/
來源:量子位(QbitAI)作者:衡宇 蕭簫,原標題:《GPT-3核心成員出走打造ChatGPT最強競品!12項任務8項更強,最新估值50億美元》。
?星標華爾街見聞,好內容不錯過?
本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。市場有風險,投資需謹慎,請獨立判斷和決策。
聊天機器人大戰打響了?
著線下交友方式的受限,線上交友成為了很多單身男女的選擇,也因此征婚交友源碼的開發越來越受歡迎,市場競爭也越發激烈。要想在競爭激烈的市場上脫穎而出需要做好三方面,分別是技術、功能和性能。今天我們就實現前端性能優化進行分析。
一、使用CDN
為了提升征婚交友源碼的前端性能,使用CDN是很常見的手段,首先需要選擇技術成熟、節點覆蓋范圍廣的CDN三方,然后再將系統中靜態的資源等通過CDN進行分發,以此來提升用戶訪問的響應速度。
二、減少請求次數
在加載征婚交友源碼中某一頁面時,盡量將圖片、CSS、JS合并要一起,以減少請求次數,這樣不僅能提升網絡請求效率,還能加快頁面加載速度,最重要的是能優化用戶的視同體驗。
三、使用gzip壓縮內容
征婚交友源碼中很多原始數據的體積都是比較大的,無論是傳輸還是下載均需耗費大量的系統資源,因此,為了實現前端性能優化,可以對部分原始數據進行壓縮處理,這樣就能有效提升數據的傳輸速度。
四、權衡DNS查找次數
適當地減少征婚交友源碼的主機名,能有效提升響應速度,不過,由于減少主機會降低頁面的并行下載數量,所以要做好權衡。
五、把CSS放到頂部
征婚交友源碼的頁面加載順序通常是由上往下加載的,所以需要將CSS放在頁面的頂部,實現頁面的優先渲染,以此來提升用戶的加載體驗。
六、把JS放到底部
如果在征婚交友源碼中優先加載JS,則會在加載后續資源時造成阻塞,因此,將JS放到底部,最后加載則是優化前端性能的有效措施。
七、刪除重復的JS和CSS
在征婚交友源碼中重復的JS和CSS會導致請求次數的增加,不必要的運算又會浪費大量的資源和時間,所以在開發時,盡可能將重復的JS和CSS刪除掉。
八、減少DOM元素數量
如果征婚交友源碼中DOM數量過多,就會導致服務器解析負擔的增加,自然也會影響到前端的使用性能,減少DOM元素數量,就能在一定程度上實現前端性能的優化。
征婚交友源碼的前端性能優化并不是一蹴而就的事,需要我們一步一步地去探索。前端性能優化方式遠不止上述的幾種,需要我們在日常的工作中不斷地去積累。只有不斷提升征婚交友源碼的質量,才能在市場中獲得更好地發展。
聲明:本文由云豹科技原創,轉載請注明作者名及原文鏈接,否則視為侵權
者:某某白米飯
來源:Python 技術
派森醬在刷豆瓣的時候發現,豆瓣上居然還有一個叫我被豆油表白了的交友話題,閱讀量居然高達 8087734 次,擁有 1000+ 篇話題,幾乎每篇平均被閱讀了 8000+ ,看了一下里面的小姐姐照片還挺多的。今天我們就用爬蟲把他們下載下來。
首先在瀏覽器中登錄豆瓣,打開話題廣場在右側有一個分類查看話題點開情感。
打開后就是下面這個樣子的。
打開控制面板 F12, 找到帶 items 的連接,然后復制整個 Request Headers 到代碼中,采用復制 cookie 的方式登錄豆瓣。
url_basic='https://m.douban.com/rexxar/api/v2/gallery/topic/18306/items?from_web=1&sort=hot&start={}&count=20&status_full_text=1&guest_only=0&ck=GStY'
headers={
'Accept': 'application/json, text/javascript, */*; q=0.01',
'Accept-Encoding': 'gzip, deflate, br',
'Accept-Language': 'zh-CN,zh;q=0.9',
'Connection': 'keep-alive',
'Content-Type': 'application/x-www-form-urlencoded',
'Cookie': 'bid=n7vzKfXLoUA; douban-fav-remind=1; ll="108296"; __utmc=30149280; __utmz=30149280.1624276858.2.2.utmcsr=google|utmccn=(organic)|utmcmd=organic|utmctr=(not%20provided); ap_v=0,6.0; gr_user_id=ca8b9156-1926-4c82-9dda-27fc7f7ad51b; __utma=30149280.66080894.1623848440.1624276858.1624282580.3; __utmt=1; dbcl2="157316158:e4ojS8paSUc"; ck=GStY; push_doumail_num=0; __utmv=30149280.15731; frodotk="a187943e3a17e8bbe496bcbaae47ba31"; push_noty_num=0; __utmb=30149280.11.10.1624282580',
'Host': 'm.douban.com',
'Origin': 'https://www.douban.com',
'Referer': 'https://www.douban.com/gallery/topic/18306/',
'sec-ch-ua': '" Not;A Brand";v="99", "Google Chrome";v="91", "Chromium";v="91"',
'sec-ch-ua-mobile': '?0',
'Sec-Fetch-Dest': 'empty',
'Sec-Fetch-Mode': 'cors',
'Sec-Fetch-Site': 'same-site',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.106 Safari/537.36'
}
url_basic 就是可以返回列表 json 的地址,只有 start 參數在隨鼠標下滑翻頁改變。
for i in range(1,35):
res=requests.get(url=url_basic.format(i * 20), headers=headers)
res_json=json.loads(res.text)
index=0
for item in res_json.get('items'):
target=item.get('target')
status=target.get('status')
print("這里是第 {} 個".format((i - 1) * 20 + index));
index=index + 1
with open('douban.txt', 'a+') as f:
f.write(json.dumps(status) + '\n');
sleeptime=random.randint(1, 10)
time.sleep(sleeptime)
這里把下載下來的數據緩存在 txt 文件里面。
先提取小姐姐的地址做一個熱力圖,看看哪邊的小姐姐最多。
需要安裝 cpca 第三方庫,cpca 是一個用于提取簡體中文字符串中省,市和區并能夠進行映射,檢驗和簡單繪圖的python模塊。簡單來說就是將交友文字中出現的市區名稱轉換為省份名稱。
pip install cpca
windows 上安裝可能出現 Building wheel for pyahocorasick (setup.py) ... error 錯誤,需要安裝 Microsoft Visual C++ Build Tools 后再 pip install cpca。
第二個安裝的是 pyecharts 第三方庫,用來可視化熱力圖。
pip install pyecharts
可以看出華東和華南交友的小姐姐要比華北和西部的小姐姐多很多,看起來單身小姐姐都集中在一線城市及其周邊。
Python 代碼如下:
from pyecharts.charts import Geo
from pyecharts.globals import ChartType
addr_dic={}
file_object=open('douban.txt','r')
try:
for line in file_object:
item=json.loads(line)
if item==None:
continue
author=item['author']
text=item['text']
addr_transform=cpca.transform([text])
addr=None
if addr_transform['省'].str.split(' ')[0] !=None:
addr=addr_transform['省'].str.split(' ')[0][0].rstrip('省')
//這里提取創作者里面的地址
if addr is None and author['loc'] is not None:
cpca.transform([author['loc']['name']])
if addr_transform['省'].str.split(' ')[0] !=None:
addr=addr_transform['省'].str.split(' ')[0][0].rstrip('省')
//這個地址要轉換一下,不然 echarts 不認
if addr is not None:
if addr=='廣西壯族自治區':
addr='廣西'
if addr=='香港特別行政區':
addr='香港'
if addr=='澳門特別行政區':
addr='澳門'
addr_dic[addr]=addr_dic.get(addr, 0) + 1
finally:
file_object.close()
// 小姐姐熱力圖
(
Geo()
.add_schema(maptype="china")
.add(
"",
[list(z) for z in zip(list(addr_dic.keys()), list(addr_dic.values()))],
type_=ChartType.HEATMAP,
)
.set_series_opts(label_opts=opts.LabelOpts(is_show=False))
.set_global_opts(
visualmap_opts=opts.VisualMapOpts(),
).render("熱力圖.html")
)
詞云可以用來展示小姐姐們自身的情況和對對方的要求。用 pyecharts 生成詞云和用 jieba 第三方庫分詞。
安裝一下 jieba 第三方庫。
pip install jieba
Python 代碼如下:
import jieba
from collections import Counter
from pyecharts.charts import WordCloud
for line in file_object:
item=json.loads(line)
if item==None:
continue
text=item['text']
seg_list=jieba.cut(text, cut_all=False)
text_list.extend(seg_list)
# 詞頻統計,使用Count計數方法
words_counter=Counter(text_list)
# 將Counter類型轉換為列表
words_list=words_counter.most_common(500)
(
WordCloud()
.add(series_name="", data_pair=words, word_size_range=[20, 66])
.render("詞云.html")
)
最后來下載小姐姐照片吧,直接用 request.get() 方法請求 images 里面的地址。
for line in file_object:
item=json.loads(line)
if item==None:
continue
images=item['images']
id=item['id']
index=0
for i in images:
index=index + 1
url=i.get('large').get('url')
r=requests.get(url);
with open('./image/{}-{}.jpg'.format(id, index), 'wb') as f:
f.write(r.content)
這篇爬蟲到這里就結束了,派森醬在這里祝愿朋友們都能找到自己的良人。
*請認真填寫需求信息,我們會在24小時內與您取得聯系。