2024年5月7日 星期二

[文章轉貼] 一家網紅PE上市,股價飆漲1200%

 原文連結: https://www.36kr.com/p/2756764087909120

如果現在有一個機會讓身為一般人的你能夠投資OpenAI和SpaceX,你會怎麼做?聽起來很像是新型騙局,是不是?但現在的確是有一家創投機構可以允許一般人擁有這些龐然大物的股票。

這家公司的Slogan也是有點龐氏騙局的味道,“對於許多處於IPO前階段的公司來說,有一個真正的機會實現10-50倍的回報。”

Destiny Tech100正是最近在美國引發熱議的PE機構。自2020年底成立後,Destiny就以投資那些被頂級風投所支持的私人科技公司為主,並且它已經於2024年3月26日成功在紐約證券交易所開始交易,普通的投資者可以透過購買公司的股票,間接持有如OpenAI這類明星公司的股份。

在4月中旬因為股票的飆升,Destiny被稱為妖股。

根據Destiny Tech100自己提交的文件,截至2023年12月,該公司持有價值約5,300萬美元的私人公司股票。減去約100萬美元的負債後,淨資產約5,200萬美元,相當於每股資產淨值約4.84美元。若以該股的最高估價105美元/股來算,比其4.84美元的資產淨值溢價2000%,這意味著投資者心甘情願為價值只有1美元的資產支付20美元的溢價。

以發行價8.25美元來算,公司用兩週時間股價飆漲近1200%。

相較於廝殺在一級市場中的那些VC和PE,怎麼看還是股民的韭菜好割一些啊。

創辦人曾是Y Combinator最年輕的創辦人之一

Destiny Tech100的創辦人Sohail Prasad就是個牛人。 18歲的他是透過Y Combinator的最年輕創辦人之一,之後Sohail儼然是個兢兢業業的VC投資人,他為150多家新創公司提供諮詢和投資,還是Rappi、Ripling、Notion、Retool、Astranis、 Superhuman和Mercury等十幾家獨角獸公司的種子投資者。

Sohail也曾在Google和麻省理工學院媒體實驗室任職。 2010年,Sohail被TCU授予德州年度青年企業家獎,後來被Thiel基金會評為Thiel Fellow。

另外值得一提的是,Sohail曾就讀於卡內基美隆大學,之後和許多知名創業家一樣選擇了輟學。

輟學之後就是Sohail起飛的人生。 2014年,Sohail和他的小夥伴Samvit Ramadurgam創立了全球私人證券交易平台Forge Global Holdings股份有限公司,旨在建立交易、託管和數據基礎設施,以滿足高成長獨角獸公司、員工和投資者的需求。

八年後Forge透過與一家空白支票公司Motive Capital Corp達成20億美元的SPAC交易上市,成為第一個上市公司的私人股票專用交易平台。如今,Forge每年交易數十億美元的IPO前股票,託管資產超過140億美元,並從淡馬錫、德意志銀行、法國巴黎銀行、富國銀行和慕尼黑再保險等機構籌集了超過2.5億美元的融資。

在實現財富自由後,Sohail和他的夥伴Ramadurgam又在2020年底創立了PE機構Destiny Tech100。 Destiny Tech100網站表示,「Destiny Tech 100是一家根據1940年法案註冊的封閉式管理投資公司。我們打算投資100家頂級創投支持的私人科技公司的投資組合,首次為日常投資者提供接觸這些私人市場領軍人物的機會。

這兩位小夥伴也是在成立了Destiny後開始相愛相殺,並最終分道揚鑣。 2023年11月,Sohail迫使他的共同創辦人兼老朋友Ramadurgam離職,搶走了Ramadurgam手持公司32%的股權,Sohail徹底把控Destiny。

雖然Sohail嘴上說著,Destiny能讓普通人有機會投資憑他們自己永遠無法投到的明星項目,但這位獨裁者也不盡是一名理想主義者。相反,身為資深投資人,低買高賣顯然是藏進股子裡的。

4月初,幾乎是Destiny股價最高的時間點,Sohail出售了公司的大量股份,最終以每股不超過30美元的價格陸續出售了162500股股票,套現總價值為488萬美元(合3500多萬元)。

這意味著,當股民們擠著往看上去很誘人的大蛋糕裡跑的時候,這塊蛋糕的製作者毫不遲疑地從他們身上薅走了3500多萬人民幣。

“普通人就沒資格投OpenAI了嗎?”

毫無疑問,Sohail對人性是有一定把握的。 Destiny為什麼能有超過2000%的溢價,還不是因為一般人也有一夜致富的夢想。 Destiny在網站上寫道,其基金為投資者提供了機會,讓他們能夠在上市前獲得令人瞠目的回報。

換句話說,Destiny給了一般人一個機會,讓他們可以與富人階層肩並肩。

但夢想是美好的,現實是殘酷的。

自2021年Destiny開始大肆收購私人科技公司的股份,在美國投資支出7,740萬美元,截止到2023年底,Destiny共擁有不到25家公司的資產,這些資產的價值也一直在下跌。截至2023年12月,這些股份的價值為5,080萬美元,虧損34%。

準確來說,自該基金首次投資以來,只有一家控股公司SpaceX出現了收益,超過一半的投資組合持股自首次購買以來下跌了30%以上,超過1/3的資產下跌了50%以上。

(圖源Jack Shannon)

Destiny的結構是一隻封閉式基金,傾向於固定其已發行股票的數量,理論上,當需求高時,基金很容易獲得溢價,相反當需求低時,它則會暴跌至折扣。不過就目前的股市情況來看,至少就目前而言,Destiny還是囤了一批投資人。

Destiny也是首批允許小投資者進入利潤豐厚,但風險龐大的市場的公共投資工具之一。迄今為止,這個市場主要留給大基金經理人和富人。

儘管基金的基本資產價值在下跌,作為優秀的投資人,Sohail並不慌,他在接受彭博電視台採訪時表示,「我們剛剛進入市場,隨著時間的推移,市場還在消化'哇,這是第一次有可能接觸到這類公司'。

他甚至直言,“這些公司是人們熟悉和喜愛的,並且經常在日常生活中看到並使用到,但除非他們富有,否則無法投資。”

在經濟低迷的今天,Meme股票的狂熱也成功地將Destiny這檔封閉式基金變成了價值10億美元的龐然大物。那些私人科技公司的估值也被吹成了大泡沫。

2020年,Sohail從科技巨頭籌集了數百萬美元,其中包括Coinbase、Plaid和Runway的聯合創始人。 2024年,他對外高調宣稱,在過去的一兩個月裡,大量獨角獸的創始人都希望加入Destiny。

這麼看來,Destiny倒是為獨角獸找到了一條退路,也為其背後的PE/VC開闢了一條雖然狹小但卻實際存在的退出通道。

持有SpaceX 34.6%股份

說要讓一般人也有投資SpaceX和OpenAI的機會,Destiny不是說說而已。

到目前為止,該基金最大的資產是伊隆馬斯克的SpaceX,前者持有34.6%的股份。根據Destiny的2023年年度報告,截至12月31日,該基金持有的SpaceX股份價值約1,840萬美元。

該公司的其他股份包括Epic Games(4%)、OpenAI(3.8%)和Chime(1.9%)。

另外值得一提的是,雖然Sohail可以透過在二級市場拋售股票來獲得收益,他本身在Destiny的薪水也讓人望塵莫及了。根據外媒的消息,雖然Destiny每天都為投資者提供難以投資的私人公司,但它的價格很高,Destiny Tech100基金每年收取2.5%的管理費。

Destiny的市值也一度超過10億美元。

相比之下,根據其最新的監管文件,淨資產價值為5,430萬美元。這更讓人忍不住懷疑這家PE真不是個騙子公司?

Destiny,中文譯為「命運」。只是不知道,這是讓一般人實現暴富的命運,還是戳破他們夢想的命運。以目前的情況來看,市場似乎也在恢復理智,至少公司的股價在下跌了,從月初的105美元/股,跌至今天的20美元不到。

2024年4月26日 星期五

美股大盤下跌時的投資觀察:業績實力股與題材股的對比

在面對美股大盤的下跌時,投資者的反應往往因股票類型的不同而異。了解不同類型股票在市場波動中的表現,可以幫助投資者做出更明智的投資選擇。以下將探討兩類股票:業績實力股與題材股,以及它們在市場下跌時的行為差異。


業績實力股公司:

在市場動盪時期,擁有強大業績背景的公司往往表現出較強的抗跌能力。這類公司通常具有以下特點:

1.權重股訊息透明:這些公司由於其市值大、影響力強,信息披露完整,使投資者能夠準確評估其價值和風險。

2. 業績前景可靠:這些公司通常擁有穩定的營收和利潤,業務模式成熟,未來增長前景明確。

3. 跌多了有人撿底:由於其基本面強勁,當股價大幅下跌時,往往會吸引價值投資者進行買入,促使股價快速反彈。


題材股:

題材股往往依賴市場情緒和短期事件驅動,這類股票在市場下跌時的特點包括:

1. 缺乏業績支撐:這些公司可能更多依賴概念或未來發展潛力,而非現有的財務表現。

2. 主力資金撤退快:一旦市場情緒轉壞,持有這類股票的大戶或機構可能快速撤出,導致股價急劇下跌。

3. 跌起來沒底:由於缺乏穩定的基本面支撐,當股價開始下跌,可能會出現無底洞的跌勢,造成重大損失。


2024年3月13日 星期三

[文章轉貼]畫師一幅畫100美元,AI才0.001美元! 小數字見大變革!

文章連結: https://mp.weixin.qq.com/s/ia5ddiedeaevhalshmJM2A?fbclid=IwAR0PstC6J975OlqgDVaXvAceFHTuONnCOeaxcdT-WQ4GgVrn6GFGLJnW0pc


隨著大模型的快速發展,AI已成為許多投資機構看好的熱門投資領域之一。


最近,矽谷創投機構A16Z發布了普通合夥人Martin Casado的演講影片。他認為我們經歷過兩次重大技術變革。一次是運算變革,晶片的誕生讓運算的邊際成本趨近於零。另一次是網路變革,讓資訊分發的邊際成本趨於零。每次變革都催生了許多新興巨頭。


現在,我們正在經歷人工智慧變革,未來「創造」的邊際成本將趨近於零,因此,他們非常看好人工智慧產業發展。


演講詳情請見如下影片:


那麼,人工智慧變革中的最大機會是什麼?除了Martin Casado這樣的投資人,一般人又該如何把握機會呢?


以下是王煜全要聞評論:




最近矽谷著名的創投機構A16Z的一個合夥人Martin Casado,在一次演講上講到了未來人工智慧的機會,以及他們這樣的VC為什麼會對人工智慧這麼看好,我覺得會對大家很有啟發,所以在這跟大家分享一下。


他說有一次他想做一個自己的卡通頭像。以前一定要請漫畫家,一小時也得100塊。


現在人工智慧繪畫一秒鐘,不到一分錢就可以畫好。所以他說基本上是4-5個數量級的差異。注意不是20%的差異,是100倍、1000倍、1萬倍的差異。



他從這兒聯想到IT發展史上曾經出現過兩次這樣的所謂「四個數量級」的差異。


第一次就是當年的PC革命。PC革命之前運算是一件很貴的事,當電腦出來之後,運算能力接近免費了,就出現了IBM、惠普、微軟甚至蘋果等成功企業。


第二次是網路革命。在PC時代就開始有軟體公司出現了,但軟體要分銷的話,就要把軟體做成光碟發送出去,成本是很高的。


有了網路就很簡單,線上直接下載就好了。這回分送頻道的費用也幾乎於零,所以又出來了一堆公司,像是亞馬遜、Google、Facebook等等。


現在第三輪所謂差四、五個數量級的進步又出現了。以前律師費一小時四、五百塊。但現在用人工智慧的法律服務,你只要輸入問題,瞬間給你答案,也就一分錢。其實還有更多,比如說審計師、心理諮商師等等。


就像當網路剛出來的時候一樣,現在確實能看到有大機會,但是不知道未來是什麼樣的。


他舉了四個方向,第一個是陪伴式的個人助理;第二個是創造力,畫漫畫是一個需要創造力的活,現在創造力幾乎免費了;第三個是生產力productivity;第四個是機器人。


當然他的觀點還是很可取的,但是我們從更系統的角度幫他來進一步梳理一下,大家對未來發展就看得更清楚了。


首先是生產力。其實人工智慧的未來發展,一開始一定是效能調優,然後是節能增效,這個節能增效就是他說的生產力。


再後來就有差異了。他說的陪伴其實是一種服務。我們說如果是一次性的服務,那叫簡單服務,如果是長期陪伴,就叫複雜服務。


如果只是陪你聊個天,是沒有商業價值的。但是如果是像老醫生一樣陪伴你,能夠對你的健康瞭如指掌,變成了長期的健康服務,這就有價值了。


所以我們說,真正最大的機會應該是基於人工智慧提供服務。



其實人工智慧這回是第一次可以把人類的專業經驗複製下來了,那人類專業經驗複製完了以後,當然就可以作為服務來輸出。


這個服務也分成虛的和實的。虛擬的陪伴服務、心理諮商都可以提供。但是還有實體的,我需要一個按摩服務,機器手臂就出來了。


我們認為在未來一兩年時間裡,機器臂的靈活度可能有一個極大的提升,也許真的有三四個數量級的提升,能幹很多原來人手才能幹的事。


我們講原來工業革命是生產的規模化,就是產品的規模化。現在這一輪我們把它定義為以人工智慧為代表的叫做數位革命,是服務的規模化。


那麼之後會進入什麼呢?叫做創意規模化的時代。也就是說人人都可以提供個人化地創意。


但創意要規模化有一個難題,就是以往創造力是屬於專家的。當然小孩有創造力,但是沒有太多的實用價值,你要有實用價值的創造力,一般被認為要有專家級的能力。


專家如果給每個人創作,個人化問題解決了,但沒辦法規模化,因為專家就這麼少。


但是如果要規模化,就不能個性化了,我們看到有規模化生產的畫,但那肯定不是藝術,所以就不能兩全其美。


那現在人工智慧來了,就可以兩全其美,為什麼呢?因為人工智慧能夠學到人類的精髓,學到人類的專家級的經驗,然後個性化地提供。


相當於為專家提供了N多個分身,每個分身也給用戶個人化的解決方案,那這種時候就能做到創造力的規模化了。


注意這時候又一個關鍵點就出來了,就是到底什麼才是藝術。比如說有人說人工智慧生產的這些圖片不能叫藝術,缺乏更強的內涵。


人工智慧其實是在海量數據吸收消化以後學出來的,那它肯定不是特別原創。



但這個原創誰擅長呢?人擅長。所以最好的方法是,把你的創造性想法讓人工智慧學會,然後就可以規模化地提供了。


那什麼是你創造力的想法呢?例如一個畫家,他的真正的創造性體現在定義一個新的風格。徐悲鴻畫的馬特別奔放,那是他獨特的風格,但是注意他以後再按這個風格畫馬的時候,就是重複勞動了。


現在人工智慧很快就能學會徐悲鴻的風格,然後不光能把馬化成這風格,把驢子也能畫成這個風格。


所以這個時候身為創造力工作者,就負責提供新的風格。風格一旦形成了以後,給客戶個性化的這個風格的畫作,就由人工智慧來完成,這樣未來世界的「創意規模化」的時代就會到來了。


那我們一般人畫畫都不會,能不能成為畫家?其實你也能,原因很簡單,你可以讓人工智慧去畫畫。


但要注意,你要成為畫家一個本質的東西還是要有的,叫做鑑賞力,就是說你是不是有頂級畫家等級的眼光。


所以我們講,未來人類將進入新通識時代,因為在每個領域,不管是繪畫、音樂,還是科學研究等等,人工智慧在專案上都會非常強。但是有一條是要人來幹的,就是鑑別和鑑賞。


未來會出現這樣的藝術家,畫作不是他的,但是他的鑑賞力特別強,能慧眼識英雄,從人工智慧的一系列作品當中挑出最好的。


甚至說能夠找到人工智慧這個好的背後的風格,然後讓人工智慧複製這個風格,然後再把這風格提供給大家。


所以我們說,如果你真的懂科技產業的發展,你就會知道科技產業發展是有一個內在的脈絡的,就像A16Z那位投資人的分析一樣,但是我們會比他分析得更有系統。


當你有了系統分析的時候,你就可以事先預知未來的機會在哪,成功的幾率就會更大了。從個人來講還有一定風險,那從社會來講,如果大家都往這個方向去努力,那我們就一定會成功。

2024年2月29日 星期四

[文章轉貼] 為什麼openai可以跑通所有AGI技術堆疊?

作者:SIY.Z

链接:https://www.zhihu.com/question/644486081/answer/3398751210

来源:知乎


目標和商業模式明確對於OpenAI,目前的目標很明確:就是all in AGI,一切研究圍繞著探索通往AGI的路徑。而商業模式上也很簡單:SaaS,直接給API,介面設計內部自己決定,付多少錢用多少,不想用就不用,這樣省去了很多產品設計,marketing,BD的時間,伺候甲方的時間(有比較可靠的消息指出即使Microsoft的Copilot等產品也是直接用的API,沒有花功夫做太多的客製化),整個公司可以集中精力開發AGI。有人可能會說:不是啊,OpenAI不是還有ChatGPT的使用者介面,手機端語音聊天,以及GPTs嗎?但仔細想想,這幾個部分OpenAI可以說是「非常不用心」了。例如ChatGPT Plus 是怎麼自動融合搜索,圖片生成,程式碼呼叫等工具的?單獨做了一套深度優化?不,答案是OpenAI給了一個巨大的prompt,讓模型自己去選。OpenAI是怎麼和各種第三方插件結合的,是單獨做了配對和介面?不,答案是直接讓這些plugins描述自己是什麼,然後模型自己調用,至於調用得對不對那就是另一件事了。這裡最典的是最近OpenAI怎麼實現「記憶」的,給大家看看OpenAI的完整prompt(博傑提供的,每個人可以誘導ChatGPT說出這些,OpenAI也不在乎):

You are ChatGPT, a large language model trained by OpenAI, based on the GPT-4 architecture. Knowledge cutoff: 2023-04

Current date: 2024-02-15

Image input capabilities: Enabled

Personality: v2


# Tools

## bio

The `bio` tool allows you to persist information across conversations.

Address your message `to=bio` and write whatever information you want to remember.

The information will appear in the model set context below in future conversations.


## dalle

// Whenever a description of an image is given, create a prompt that dalle can use to generate the image and abide to the following policy:

// 此处省略 1000 词


## browser

You have the tool `browser`. Use `browser` in the following circumstances:

    - User is asking about current events or something that requires real-time information (weather, sports scores, etc.)

    - User is asking about some term you are totally unfamiliar with (it might be new)

    - User explicitly asks you to browse or provide links to references


// 此处省略 1000 词


## python

When you send a message containing Python code to python, it will be executed in a

stateful Jupyter notebook environment. python will respond with the output of the execution or time out after 60.0

seconds. The drive at '/mnt/data' can be used to save and persist user files. Internet access for this session is disabled. Do not make external web requests or API calls as they will fail.


## voice_mode

// Voice mode functions are not available in text conversations.

namespace voice_mode {

} // namespace voice_mode


## Model Set Context

1. [2024-02-14]. Obtained PhD from Microsoft Research Asia and USTC in 2019.

2. [2024-02-14]. Running an early-stage AI startup since July 2023.

3. [2024-02-14]. Loves writing blogs, traveling and documenting everything.

4. [2024-02-15]. Experience in writing Python.

5. [2024-02-15]. Interested in digital extension of humanity.

6. [2024-02-15]. First met ChatGPT on Dec. 1st, 2023.


OpenAI 直接用prompt 讓GPT-4呼叫bio這個工具記錄需要記憶的內容(「to=xxx」是呼叫內部工具的語法,例如"to=python"是GPT 呼叫code interpreter的方式)。然後每次新的對話開始時,在prompt的最後直接加上所有先前的記錄的內容(## Model Set Context)。就是這麼簡單粗暴。

GPTs 怎麼做的?其實很大程度就是OpenAI 的Assistant API加個簡單得有點簡陋的前端。(PS:現在有了OpenAI Assistant API後,你發現加個UI就可以很輕鬆的複刻OpenAI上線的大部分功能。)

那麼語音對話呢?你會發現就是換了一個prompt,告訴GPT盡量產生短的內容,不要輕易產生清單和程式碼。語音合成用TTS API,辨識用whisper API(可能有針對上下文的最佳化),結束。

這些選擇看起來非常暴力,而且會給OpenAI增加開銷(長的prompt會明顯增大開銷),但是OpenAI仍然選擇這麼做,因為這讓OpenAI將大部分精力都花在模型本身的研發上,同時這也是OpenAI的方法論的極致體現,我們下面會提到。這種方法論讓OpenAI追求一個大的通用的模型,避免一切定制和特化,就像最近Sam說的一樣,希望GPT-5的出現能讓模型微調失去意義;這樣OpenAI就變成了完完全全的SaaS服務。方法論明確OpenAI的方法論是通往AGI 的方法論。這個方法論有著非常清晰的邏輯結構,和非常明確的推論。我們甚至可以用公理化的方式來描述它,怎麼說呢,感覺上有一種宿命感,。方法論的公理這套方法論的大廈建構於以下幾個“公理”(打引號是因為它們不是真正的“公理”,而更多是經驗規律,但是在AGI方法論中,它們起到了公理的作用):

公理1: The bitter lesson。我認為所有做AI的人都應該熟讀這篇文章。「The bitter lesson」 所說的事情是,長期來看,AI領域所有的奇技淫巧都比不過強大的算力夾持的通用的AI演算法(這裡「強大的算力」隱含了大量的訓練數據和大模型)。某種意義上,強大的算力夾持的通用的AI演算法才是AGI路徑的正道,才是AI技術真正進步的方向。從邏輯主義,到專家系統,到SVM等核方法,到深度神經網絡,再到現在的大語音模型,莫不過此。

公理2: Scaling Law。這條公理說了,一旦選擇了良好且通用的數據表示,良好且通用的數據標註,良好且通用的算法,那麼你就能找到一套通用規律,保證數據越多,模型越大,效果越好。而且這套規律穩定到了可以在訓練模型之前就能預知它的效果:Scaling Law 甚至能夠在訓練前預知最後的性能,圖片選自OpenAI GPT-4 Technical Report如果說公理1 The bitter lesson是AGI的必要條件-大模型,大算力,大數據,那麼公理2 Scaling Law就是AGI充分條件,即我們能找到一套演算法,穩定的保證大模型,大算力,大數據導致更好的結果,甚至能預測未來。

而具體來談,就是我們之前說的“良好且通用的數據表示,良好且通用的數據標註,良好且通用的算法”,在GPT和Sora中都有相應的內容:

在GPT中,良好且通用的數據表示,是tokenizer帶來的embedding。良好且通用的資料標註是文字清理和去重的一套方法(因為自然語言訓練是unsupervised training,資料本身就是標註)。良好且通用的演算法就是大家熟知的transformers + autoregressive loss。

在Sora中,良好且通用的數據表示,是video compress network帶來的visual patch。良好且通用的資料標註是OpenAI自己的標註器給影片詳細的描述(很可能是GPT-vision)。

良好且通用的演算法也是大家熟知的transformers + diffusion「良好且通用的數據表示,良好且通用的數據標註,良好且通用的演算法」同時也為檢測scaling law做好了準備,因為你總是可以現在更小規模的模型和數據上檢測演算法的效果,而不用大幅更改演算法。例如GPT1,2,3這幾代的迭代路徑,以及Sora中OpenAI明確提到visual patch使得他們用完全一樣的演算法在更小規模的數據上測試。

公理3: Emerging properties。這條公理其實是一條檢驗公理:我怎麼知道scaling law帶來“質變”,而不僅僅是“量變”?答案是:你會發現,隨著scaling law的進行,你的模型突然就能穩定掌握之前不能掌握的能力,而且這是所有人能夠直觀體驗到的。例如GPT-4比起GPT-3.5,可以完成明顯更複雜的任務,例如寫一首26行詩來證明素數是無限的,每行開頭必須是從A到Z。例如Sora相對於之前的模型,它的時空一致性,以及對現實中物理規律的初步掌握。沒有Emerging properties,我們很難直觀感覺到突破性的變化,很難感知“我們真的向AGI前進了一步”,或者是“我們跑通了一個技術棧”。


方法論的必然推論

從上面的公理中,我們就可以理解OpenAI的各種決策了,並且可以預見OpenAI未來的行為。

推論1:世界模型。大量數據從哪裡來?什麼東西能夠產生最多的數據?AGI需要什麼樣的資料才能通用地處理世界上的一切事情?答案就是:世界本身。世界本身產生最多的數據(或極端一點,世界就是數據),而世界產生的數據,也是AGI所需的數據的最小集合,因為我們也只需要或只能讓AGI處理這個世界的事情。可以預見,OpenAI未來還會執著於持續取得或建構資料。

推論2: 世界生成模型。要最有效的利用數據,我們需要最困難的,需要最多數據,並且能利用所有數據的任務。這樣的任務可能只有一個:模擬和產生整個世界(人類所有的智慧只是一小塊)。因此OpenAI需要做生成模型,並且是能夠模擬和生成物理世界的模型,透過生成這個世界,實現對世界的理解。最近火熱的Sora便是其中之一。這個想法也和費曼的名言對應:「我不能創造的,我也不能真正理解」。可以預見,OpenAI未來還會在更多的模態和數據上去做生成模型。

推論3:通用模型。通用模型還是專用模型能用到更多資料?顯然是通用模型。而通用模型也減少了OpenAI的技術棧,因為一個模型能解決更多問題。這也導致先前提到的OpenAI解決各種問題時更傾向於用同一種模型,而不是做非常多不同的客製化。可以預見,OpenAI未來可能會繼續走通用模型的道路,降低finetuning等特化的需求,繼續增加模型的context length。

推論4:用一個模型為另一個模型提供標註。由於目前技術限制,OpenAI仍然無法用一個模型完成所有的任務,這樣一個的模型收到資料就變少了。然而,我們可以用一個模型給另一個模型提供標註的形式,間接實現資料供給。OpenAI的Dall E和Sora都用到了大量可能來自於GPT vision的資料標註。這樣OpenAI的各個技術堆疊都可以連通起來。可以預見,OpenAI未來可能會繼續加強各個模型的連接,例如將來用Sora反向給GPT vision給數據都是可能的;用一個已有模型去構造更多數據也會是一個重要的方向(比如backtranslation ,data distillation等等)。

推論5:Transformer架構。我們需要一種能夠並行處理大量資料吞吐,且滿足scaling law的架構。transformer架構充分證實它在各個模態和技術堆疊的優勢,特別在複雜任務中,因而被OpenAI廣泛使用。使用同樣一個架構的好處在於可以重複使用模型的參數(例如tokenizer,embeddings,以及部分權重)來bootstrap不同技術堆疊的訓練,以及可以用一套infra框架訓練不同的模型。可以預見,將來新的模型如果要取代傳統的transformer架構,還需要通過scaling law的檢驗。

推論6:稀疏模型。模型越大,效能越好,但是推理的成本也越高,這看起來是個死結。但我們可以使用稀疏活化的方式,在推理時降低實際的參數量,從而在訓練中使用更多參數的同時,降低推理的成本。Mixture-of-Experts就是常用的方法之一,被OpenAI採用,從而繼續scale模型的大小。未來稀疏化仍會是一個重要的課題,目前即使Mixture-of-Experts的稀疏也會造成推理表現的損失,尚不清楚稀疏化的極限在何處。

推論7:算力是瓶頸。最終卡OpenAI脖子的是算力。大算力系統的建構也是OpenAI打通各個技術堆疊的底氣。有人可能認為,高品質文字是有限的,因此實際上模型大小有極限。但以世界模型的角度來考慮,OpenAI現在用的數據仍然是冰山一角,更不用說Q*等方法或許可以以間接方式創造數據。例如最近OpenAI GPT-4-Turbo,作為一個distillation模型,在許多評測上都超過原來的模型,就是一個例證。直到目前,作為局外人仍然看不到scaling law的盡頭。而且即使不開發任何新的模型,OpenAI離「用GPT-4服務所有人」的目標仍然很遠。所以算力在可見的未來都是一個巨大的瓶頸。這也可以理解Sam為何有「7兆重構晶片產業」的想法了。可以預見,OpenAI可能在未來在晶片以及整個AI Infra方面嘗試更多的自研和垂直整合。

總結

總結來看,OpenAI採取的商業模式以及其對於AGI的信奉、系統性的方法論以及積極的嘗試,都在推動他們朝著實現通用人工智能的目標前進,實現了一種可以跑通所有AGI技術棧的模式,而這一點,是OpenAI能在眾多研究機構和公司中脫穎而出的重要因素。未來,OpenAI可能繼續朝著商業化的道路前進,並在世界模型、模型標註、通用模型、模型架構、稀疏模型資料擴充等方面進行更深入的探索和實踐。同時,OpenAI也會持續關注並應對算力帶來的挑戰,尋找突破算力瓶頸的解決方法。



2024年1月1日 星期一

美股盤中交易當中最佳買進/賣出時間通常在什麼時候?

在投資美國股市的過程中,許多投資者一直在尋找最佳的交易時間點,希望能夠最大化利潤或是減少損失。對於市值在200億美元以上的大盤股來說。

我的經驗顯示,在美東時間09:30至10:30之間與15:00至16:00,即開盤的第一個小時與收盤前的最後一個小時,通常是進行交易的最佳時機。


開盤與收盤時段的波動性


這兩個時段之所以被視為最佳交易時機,主要是因為股票的波動率在這些時段內最大。開盤之初,市場需要吸收前一交易日後市場關閉期間累積的所有新聞、經濟數據和其他市場動態,這導致了股價的大幅波動。同樣地,收盤前的一小時,投資者會試圖調整持倉,以應對夜間可能發生的事件,這也會引起股價的波動。


 中間時段的穩定性


相對於開盤和收盤時段,10:30至15:00的時間段通常見到的是相對平穩的市場條件。在這段時間內,除非有重大新聞發布,如個股相關的重要公告或是美聯儲主席的講話等,否則股價的波動通常較小。值得注意的是,雖然美聯儲主席的講話等事件可以提前得知,其他突發性重大新聞卻是難以預測的,當它們發生時,市場的反應往往是迅速而劇烈的。


理解這些時段的重要性


投資者利用開盤和收盤時段的波動性來進行交易,理論上可以抓住更大的價格變動,從而獲得較高的收益。然而,這也伴隨著更高的風險,因為股價的波動同樣意味著損失的可能。因此,這種策略可能更適合那些能夠承受較高風險和具有一定交易經驗的投資者。


對於那些尋求較穩定投資策略的人來說,避開這些高波動時段,選擇在市場相對平穩的時段進行交易可能是一種更加謹慎的做法。無論選擇哪種策略,重要的是要有清晰的投資計劃和風險管理措施。