Code2prompt 是一個命令行工具,能將你的代碼庫轉化為單一的大型語言模型(LLM)提示,結合源碼樹結構,模板定制,以及令牌計數。它旨在簡化與高級上下文窗口模型如GPT或Claude的交互,助你在重寫代碼、查找bug、編寫文檔和實現新功能等方面提升效率。通過將你·的整個項目轉換為一個全面的、對 AI 友好的提示,Code2Prompt 使你能夠充分利用 AI 的潛力進行代碼分析、文檔和改進任務。
代碼遷移:想把代碼從一種編程語言轉換到另一種?只需提供一個目標語言的模板,讓LLM來完成任務。
錯誤檢測:利用code2prompt生成的提示,讓LLM識別潛在的安全漏洞或編碼錯誤。
文檔生成:自動為代碼添加注釋,提高代碼可讀性。
性能優化:通過調整代碼結構,提高代碼執行效率。
版本控制:基于git的變更,生成有意義的提交消息。
項目特點整體代碼庫表示:生成一個結構良好的 Markdown 提示,以捕捉整個項目的本質。
智能源代碼樹生成:創建代碼庫結構的清晰分層視圖。
可自定義的提示模板:使用 Jinja2 模板定制您的輸出以適應特定的 AI 任務。
智能令牌管理:對令牌進行計數和優化,以確保與各種 LLM 令牌限制兼容。
Gitignore集成:尊重項目的 .gitignore 規則,以獲得準確的表示。
靈活的文件處理:使用強大的 glob 模式過濾和排除文件。
剪貼板就緒:立即將生成的提示復制到剪貼板,以便進行快速的 AI 交互。
增強的代碼可讀性:將行號添加到源代碼塊中,以便精確引用。
Code2Prompt 的基本語法為:
對于多條路徑:
命令參數
--filter或 和 或-f--exclude-e 和選項允許您分別指定應包含在處理中或從處理中排除的文件或目錄的模式。--filter--exclude
語法
使用實例
從單個 Python 文件生成提示:
處理整個項目目錄并保存輸出:
為多個文件生成提示,不包括測試:
標記是語言模型處理的文本的基本單位。它們可以是單詞、單詞的一部分,甚至是標點符號。不同的分詞器編碼以不同的方式將文本拆分為分割令牌。Code2Prompt 通過其選項支持多種令牌類型,默認為“cl100k_base”。GPT-3.5 和 GPT-4 等模型使用的這種編碼擅長處理代碼和技術內容。其他常見的編碼包括“p50k_base”(由早期的 GPT-3 模型使用)和“r50k_base”(由 CodeX 等模型使用)。若要在生成的提示中計算令牌,請使用以下標志:
對于特定編碼:
Code2Prompt 支持 JSON 格式的配置文件來設置默認選項。將此文件放在您的項目或主目錄中,例:
從發布頁面下載適合你操作系統的預編譯二進制文件,或者使用cargo安裝:
cargo install code2prompt
然后,你可以根據需要調用code2prompt并指定相應參數,例如:
code2prompt path/to/codebase
借助code2prompt,你將釋放出LLM的潛力,使代碼工作流更智能、更高效。立即嘗試,開啟你的高效開發之旅吧!
更多詳細內容:https://github.com/raphaelmansuy/code2prompt?tab=readme-ov-file
高性價比GPU算力:https://www.ucloud.cn/site/active/gpu.html?ytag=gpu_wenzhang_0710_shemei
器之心專欄
機器之心編輯部
本文提出了一個名為 SpeechGen 的統一框架,該框架可用于任意的 speech LM 及各類語音生成任務,具有很好的潛力。
論文鏈接:https://arxiv.org/pdf/2306.02207.pdf
Demo 頁面:https://ga642381.github.io/SpeechPrompt/speechgen.html
Code: https://github.com/ga642381/SpeechGen
引言與動機
大型語言模型(LLMs)在人工智能生成內容(AIGC)方面引起了相當大的關注,特別是隨著 ChatGPT 的出現。
然而,如何用大型語言模型處理連續語音仍然是一個未解決的挑戰,這一挑戰阻礙了大型語言模型在語音生成方面的應用。因為語音信號包含豐富的信息,如說話者和情感,超越了純文本數據,基于語音的語言模型 (speech language model (speech LM)) 不斷涌現。
雖然與基于文本的語言模型相比,語音語言模型仍處于早期階段,但由于語音數據中蘊含著比文本更豐富的信息,它們具備巨大的潛力,令人充滿期待。
研究人員正積極探索提示 (prompt) 范式的潛力,以發揮預訓練語言模型的能力。這種提示通過微調少量參數,引導預訓練語言模型做特定的下游任務。這種技術因其高效和有效而在 NLP 領域備受青睞。在語音處理領域,SpeechPrompt 展示出了在參數效率方面的顯著改進,并在各種語音分類任務中取得了競爭性的表現。
然而,提示能否幫助語音語言模型完成生成任務仍是未解之謎。在本文中,我們提出一個創新的統一框架:SpeechGen,旨在激發語音語言模型進行生成任務的潛力。如下圖所示,將一段語音、一個特定的提示 (prompt) 喂給 speech LM 作為輸入,speech LM 就能做特定的任務。比如將紅色的 prompt 當作輸入,speech LM 就能做 speech translation 的任務。
我們提出的框架具有以下優點:
1. 無文本 (Textless):我們的框架以及其所依賴的語音語言模型獨立于文字數據,擁有無可估量的價值。畢竟,獲取標記文本與語音配對的過程耗時繁瑣,而且在某些語言中甚至無法找到合適的文本。無需文字的特性使得我們的強大語音生成能力得以覆蓋各種語言需求,讓全人類受益匪淺。
2. 多功能性 (Versatility):我們開發的框架通用性極高,能應用于各種各樣的語音生成任務。論文中實驗使用語音翻譯、語音修復、語音連續當作例子。
3. 簡易性 (Easy to follow):我們提出的框架為各類語音生成任務提供了通用解決方案,讓設計下游模型和損失函數變得輕而易舉。
4. 可遷移性 (Transferability):我們的框架不僅容易適應未來更先進的語音語言模型,還蘊藏著巨大的潛力,讓效率和效果得到進一步提升。尤其令人振奮的是,隨著先進語音語言模型即將問世,我們的框架將迎來更為強大的發展。
5. 經濟性 (Affordability):我們的框架經過精心的設計,只需訓練少量參數,而不是整個龐大的語言模型。這極大地減輕了計算負擔,并允許在 GTX 2080 GPU 上執行訓練過程。大學的實驗室也能負擔得起這樣的運算開銷。
SpeechGen介紹
我們的研究方法在于構建一個全新的框架 SpeechGen,該框架主要利用語音語言模型(Spoken Language Models, SLMs)進行各種下游語音生成任務的微調。在訓練過程中,SLMs 的參數保持不變,我們的方法側重于學習任務特定的提示(Prompt)向量。SLMs 通過同時對提示向量和輸入單元進行條件設置,有效地生成特定語音生成任務所需的輸出。然后,這些離散單元輸出被輸入到基于單元的語音合成器中,生成對應的波形。
我們的 SpeechGen 框架由三個元素組成:語音編碼器、SLM 和語音解碼器(Speech Decoder)。
首先,語音編碼器將波形作為輸入,并將其轉換為由有限詞匯表導出的單位序列。為了縮短序列長度,會移除重復的連續單位以生成壓縮的單位序列。然后,SLM 作為單位序列的語言模型,通過預測前一單位和單位序列的后續單位來優化可能性。我們對 SLM 進行提示調整,以引導其根據任務生成適當的單位。最后,SLM 生成的標記由語音解碼器處理,將其轉換回波形。在我們的提示調整策略中,提示向量會在輸入序列的開始處插入,這將引導 SLMs 在生成過程中的方向。具體插入的提示數量,則取決于 SLMs 的架構。在序列到序列的模型中,編碼器輸入和解碼器輸入都會加入提示,但在只有編碼器或只有解碼器的架構中,只會在輸入序列前面添加一個提示。
在序列到序列的 SLMs(如 mBART)中,我們采用了自我監督學習模型(如 HuBERT)來處理輸入和目標語音。這樣做可以為輸入生成離散單元,并為目標生成對應的離散單元。我們在編碼器和解碼器輸入的前面都添加了提示向量,以構造輸入序列。此外,我們還通過替換注意力機制中的關鍵值對,以進一步增強提示的指導能力。
在模型訓練中,我們以交叉熵損失作為所有生成任務的目標函數,通過比較模型的預測結果和目標離散單元標簽來計算損失。在這個過程中,提示向量是模型中唯一需要訓練的參數,而 SLMs 的參數在訓練過程中保持不變,這確保了模型行為的一致性。我們通過插入提示向量,引導 SLMs 從輸入中提取任務特定信息,并提高產生符合特定語音生成任務的輸出的可能性。這種方法允許我們微調并調整 SLMs 的行為,而無需修改其基礎參數。
總的來說,我們的研究方法基于一種全新的框架 SpeechGen,通過訓練提示向量,引導模型的生成過程,并使其能有效地產生符合特定語音生成任務的輸出。
實驗
我們的框架可以用于任意的 speech LM 及各類生成任務,具有很好的潛力。在我們的實驗中,由于 VALL-E 和 AudioLM 不是開源的,我們選擇使用 Unit mBART 作為 speech LM 進行案例研究。我們用語音翻譯 (speech translation)、語音修復 (speech inpainting)、語音連續 (speech continuation) 當作例子,來展示我們框架的能力。這三個任務的示意圖如下圖所示。所有的任務都是語音輸入,語音輸出,無需文本幫助。
語音翻譯
我們在訓練語音翻譯 (speech translation) 時,用的是西班牙文轉英文的任務。我們給模型輸入西班牙語的語音,希望模型產生英文的語音,整個過程無需文本幫助。以下是幾個語音翻譯的例子,我們會展示正確答案 (ground truth) 與模型的預測 (model prediction)。這些演示示例表明模型的預測捕捉到了正確答案的核心含義。
語音修補
在我們進行語音修補 (speech inpainting) 的實驗中,我們特別選取超過 2.5 秒的音頻片段作為后續處理的目標語音,并通過隨機選擇過程挑選出一段時長介于 0.8 至 1.2 秒的語音片段。然后我們對選出的片段進行掩碼,模擬語音修補任務中缺失或受損的部分。我們使用詞錯誤率 (WER) 和字符錯誤率 (CER) 作為評估受損片段修復程度的指標。
對 SpeechGen 生成的輸出與受損語音進行比較分析,我們的模型可以顯著重建口語詞匯,將 WER 從 41.68% 降低到 28.61%,將 CER 從 25.10% 降低到 10.75%,如下表所示。這意味著我們提出的方法能夠顯著提高語音重建的能力,最終促進語音輸出的準確性和可理解性。
下圖是一個展示樣例,上面的子圖是受損的語音,下面的子圖是 SpeechGen 產生的語音,可以看到,SpeechGen 很好地修復了受損的語音。
語音連續
我們將通過 LJSpeech 展示語音連續任務的實際應用。在訓練提示(prompt)期間,我們的策略是讓模型只看到片段的 seed segment,這個 seed segment 占據了語音總長度的部分比例,我們將其稱為條件比率(condition ratio, r),并讓模型繼續生成后續的語音。
以下是一些實例,黑色的文字代表種子片段(seed segment),紅色的文字則是 SpeechGen 生成的句子(這里的文字首先經過語音識別得到結果。在訓練和推理過程中,模型完全進行的是語音到語音的任務,且完全不接收任何文字信息)。不同的條件比率使 SpeechGen 能夠生成不同長度的語句以實現連貫性,并完成一句完整的話。從質量角度看,生成的句子與種子片段在語法上基本一致,并且語義相關。雖然,生成的語音仍然無法完美地傳達一個完整的意思。我們預期這個問題將在未來更強大的語音模型中得到解決。
不足與未來方向
語音語言模型和語音生成正處于蓬勃發展的階段,而我們的框架則提供了一種巧妙地利用強大語言模型進行語音生成的可能性。然而,這個框架仍有一些尚待完善之處,也有許多值得我們深入研究的問題。
1. 與基于文本的語言模型相比,語音語言模型目前還處于發展的初級階段。雖然我們提出的提示框架能激發語音語言模型做語音生成任務,但并不能達到卓越的性能。不過,隨著語音語言模型的不斷進步,比如從 GSLM 到 Unit mBART 的大轉身,提示的表現有了明顯的提升。特別是以前對 GSLM 具有挑戰性的任務,現在在 Unit mBART 下表現出更好的性能。我們預計未來會出現更多先進的語音語言模型嶄露頭角。
2. 超越內容信息:當前的語音語言模型并不能完全捕捉到說話者和情感信息,這給當前的語音提示框架在有效處理這些信息方面帶來了挑戰。為了克服這個限制,我們引入即插即用模塊,專門為框架注入說話者和情感信息。展望未來,我們預計未來的語音語言模型將整合和利用這些內容之外的信息,以提高性能并更好地處理語音生成任務中的說話者和情感相關方面。
3. 提示生成的可能性:對于提示生成,我們有著靈活多變的選擇,可以集成各種類型的指示,包括文本和圖像指示。想象一下,我們可以訓練一個神經網絡,讓它用圖像或文本作為輸入,而不是像本文中那樣使用訓練好的 embedding 當作提示。這個訓練好的網絡將成為提示生成器,為框架增添了多樣性。這樣的方式會讓提示生成變得更加有趣、更加豐富多彩。
結論
本文我們探索了使用提示來解鎖語音語言模型在各種生成任務中的性能。我們提出了一個名為 SpeechGen 的統一框架,該框架僅有約 10M 的可訓練參數。我們所提出的框架具有幾大特性,包括無需文本、多功能性、高效性、可轉移性和可負擔性。為了展示 SpeechGen 框架的能力,我們以 Unit mBART 為案例進行研究,并在三個不同的語音生成任務上進行實驗:語音翻譯、語音修復和語音延續。
當這篇論文提交到 arXiv 時,Google 提出了一種更先進的語音語言模型 ——SPECTRON,它為我們展示了語音語言模型在建模說話人和情感等信息的可能性。這無疑是一個令人興奮的消息,隨著先進語音語言模型的不斷提出,我們的統一框架具有巨大的潛力。
idjourney Prompt 有人稱之為“關鍵詞”,其實我覺得翻譯為“提示詞”更確切。
了解文本內容,我們一起深度理解提示詞,掌握一個真正的萬能結構,從此構建屬于你的“咒語”!
首先了解下,/imagine命令的提示結構
精心編寫的文字提示詞,對獲得我們理想圖像至關重要。
Midjourney Bot 還沒覺醒到,能夠讀取我們腦海中的意識,因此,我們需要付出足夠的耐心!
完整具體
提示詞不夠完整具體,那么Midjourney Bot將依賴默認式樣生成,可能出現我們不需要的驚喜!
假設我們只是簡單提示“貓”,那么Midjourney可能給的任何貓。而我們若有需求,可以這樣提示說:“兩只大貓和一只小貓。”
簡潔明晰
Midjourney Bot 不像人類那樣理解語法、句子結構和單詞。
因此,提示選擇什么樣的詞很重要。應在簡潔前提下,清晰做出描述。并且只描述我們想要什么,而不是不想要什么。
如果不想出現什么,請嘗試使用--no參數。
一些例子
提示詞是“三只貓(其中一只大貓和兩只小貓)”,這樣很容易讓 Midjourney Bot 誤解。
而寫成:“一只大貓和兩只小貓”,這樣 Midjourney Bot 的理解會更準確一些。
另外,因為 Midjourney 僅支持英文的關系,小貓寫成Kitten更確切,small cat 也會讓 Midjourney Bot 誤解。
三只貓(其中一只大貓和兩只小貓)
一只大貓和兩只小貓
一些要點
知識點
所有提示,最終都會被Bot拆分成tag去理解,對符號的解釋并不可靠,我們應盡量避免多義的可能,才能獲得更準確的結果。
提示詞萬能結構:內容 + 構成 + 風格
我將此稱為“CCS結構”,即內容(Content)、構成(Composition)和風格(Style)
內容、構成和風格是藝術領域創作不可缺少的三個關鍵要素。內容指的是藝術的主題內容,構成是元素的排列和組織方式,風格則是藝術執行的獨特方式,包括技術、手法、材料、載體等。
三部分的提示詞都盡量具體化提示,可以減少Bot自由發揮的空間,能更接近預期效果。
CSS結構也有助于我們整理思路,更有條理的組織,及部分提示詞形成模板在利用。如保證風格和構成不變,只修改內容部分,更容易得到看似同系列的作品。
這里有一段傳統藝術領域對三個要素的理解,可以給我們一些啟發:
“在許多方面,內容、構成和風格是藝術的相互關聯的方面。內容可以啟發構成,而構成可以影響風格。同樣,風格通常可以用來增強或強化藝術的內容和構成。為了創造成功的藝術作品,藝術家必須仔細考慮所有三個要素以及它們彼此之間的相互作用。如此,我們可以創造出既視覺上令人驚嘆又心智上引人入勝的作品,能夠預期的向觀眾傳達復雜的思想和情感。
主體:
A pretty young woman in a white dress 一個穿著白色裙子的漂亮年輕女人
A castle made out offlower 一座被鮮花包裹的城堡
Blacklight building 黑光效果的大樓(將顏色直接給主體定義也可以)
mascot for milk brand 乳制品的吉祥物
Tshirt vector Pikachu T恤衫矢量風格的圣斗士
環境:
indoors(室內), outdoors(戶外), on the moon(月球上), in Narnia(在納尼亞), underwater(水下), the Emerald City(翡翠城),tundra(苔原),salt flat(鹽沼),jungle(叢林),desert(沙漠),mountain(山),cloud forest(云霧森林),savannah(熱帶草原),wetland(濕地),estuary(河口),fjord(峽灣),steppe(草原),dune(沙丘),oasis(綠洲),bay(海灣),hill(山丘),delta(三角洲),cave(洞穴),volcano(火山),waterfall(瀑布),beach(海灘),cliff(懸崖)等等,具體如on the beach at sunset(在夕陽下的海灘)這樣更佳。
情緒:determined(堅定的), happy(歡樂的),sleepy(昏昏欲睡的), angry(憤怒的), shy(害羞的), embarassed(尷尬的),Sedate(穩重), calm(平靜), raucous(喧鬧), energetic(精力充沛)等等……
構圖:Portrait(肖像畫)、headshot(頭像)、half-body portrait(半身像)、closeup(特寫)、Full body shot(全身照)、Three-quarter shot(三分之二側身照)、Profile shot(側面照)、Action shot(動作照)、Landscape shot(風景照)、Still life shot(靜物照)等。
視角:Top View(俯視圖)、 birds-eye view(鳥瞰圖)、Horizontal angel(水平角度)、Lookup(仰視)、font view、side view(側視圖)、back view(背視圖)、Perspective(透視圖)、POV(攝影機視角)等。
照明:soft(柔和的), ambient(環境光), overcast(陰天的), neon(霓虹燈), studio lights(工作室燈)、in the style of soft(柔和的風格)等。
色調:vibrant(鮮艷的), muted(靜柔暗淡的), bright(明亮的), monochromatic(單色的), colorful(多彩的), black and white(黑白的), pastel(淡彩的)等。
色彩:Millennial Pink(千禧粉) Acid Green(酸性綠) Desaturated(去飽和度的) Canary Yellow(淡黃色) Peach(桃紅色) Two Toned(雙色調) Pastel(粉彩) Mauve(淡紫色) Ebony(烏木色) Neutral(中性色) Day Glo (日格洛) Green Tinted(綠調染色),light bronze and amber(淺青銅和琥珀色)
藝術形式(Medium):photo(照片), painting(繪畫), illustration(插圖), sculpture(雕塑), doodle(涂鴉), tapestry(掛毯),Block Print(版畫), Folk Art(民間藝術), Cyanotype(藍版), Graffiti(涂鴉), Paint-by-Numbers(數字畫), Risograph(曲線圖), Ukiyo-e(浮世繪), Pencil Sketch(鉛筆素描), Watercolor(水彩畫), Pixel Art(像素畫), Blacklight Painting(黑光繪圖), Cross Stitch(十字繡)等等。
注:藝術形式是定義風格的最佳方法之一。
技巧手法:Life Drawing(寫生), Continuous Line(連續線條畫), Loose Gestural(速寫), Blind Contour(盲畫), Value Study(明暗畫法), Charcoal Sketch(炭筆素描)等等,可以對藝術形式作為補充,也可以單獨使用。
年代(Decade):1700s、1700s、1800s、1900s、1910s、1920s、1930s、1940s、1950s、1960s、1970s、1980s、1990s等等,可以強化畫風。
當然,風格提示詞有很多,完全不局限于上述這些單詞及表述形式,稍后在其他篇章,我們將繼續深入用實例分析。
提示詞如下:
A pretty young woman in a white dress,on the beach at sunset,shy, --v 5.1
一個穿白色裙子的漂亮年輕女人,在夕陽下的海灘,害羞的。
我們只提示了“內容”,沒有“構成”和“風格”,所以構圖、視角、照明、色彩、顏色這些都是隨機的,只不過是介于我們提示了“夕陽下的海灘”,因此效果相對接近預期,色調、顏色不會偏差太大。但構圖、視角這些很隨機,而且有三張圖是CG風格,只有圖3是照片風格。必要的沒有提示,Bot就自由發揮。
我們調整下提示詞:
A pretty young woman in a white dress,on the beach at sunset,shy,Three-quarter shot,Lookup,soft,bright,light bronze and amber --v5.1
一個穿白色裙子的漂亮年輕女人,在夕陽下的海灘,害羞的,三分之二側身照,仰視,柔和的,光亮的,淺青銅和琥珀色。
三分之二側身照與仰視效果已表現。光線更柔和(與之前對比明顯)。夕陽更光亮。淺青銅和琥珀色也有明顯表現。而 Midjourney Bot 的智能補充結果也很棒:因為三分之二側身照屬人像,因此默認半身像,且背景虛化(人像攝影常用的大光圈景深),仰視角度配合側身照也剛好。
我們改一個視角看看:
A pretty young woman in a white dress,on the beach at sunset,shy,Three-quarter shot,Top View,soft,bright,light bronze and amber --v 5.1
一個穿白色裙子的漂亮年輕女人,在夕陽下的海灘,害羞的,三分之二側身照,俯視,柔和的,光亮的,淺青銅和琥珀色。
我們只調整了一個提示詞,將“仰視”改為了“俯視”,對比一下吧,是不是感覺視線高了一些?
我們再嘗試調整一些風格提示詞:
A pretty young woman in a white dress,on the beach at sunset,shy,photo --v 5.1
一個穿白色裙子的漂亮年輕女人,在夕陽下的海灘,害羞的,照片。
為了更好的展示區別,我們去掉了構成提示部分,保持原來的內容部分,然后增加了風格提示詞:照片。
可以看到,構圖、角度、色調又開始自由發揮了,但是“照片”提示詞已經起作用了,無論是人物、還是大海、沙灘,看不到繪畫感了,每一個細節都是照片的感覺。(可以點大圖看,請容易分辨,和之前對比)
我們再嘗試調整一個風格:
A pretty young woman in a white dress,on the beach at sunset,shy,Ukiyo-e --v 5.1
這次從照片換成了浮世繪風格了。風格部分提示詞中,藝術形式(Medium)是最影響畫風,也是最方便定義風格的。
除Portrait(肖像畫)、headshot(頭像)和closeup(特寫)構圖外,常用的還有:
Full body shot(全身照):指將整個人物或物體的形象呈現在畫面中。
Three-quarter shot(三分之二側身照):指將人物或物體的形象呈現在畫面中,但略微側身,呈現出畫面的動態感。
Profile shot(側面照):指將人物或物體的側面形象呈現在畫面中。
Action shot(動作照):指捕捉到人物或物體在運動或活動中的形象,以呈現出畫面的動態感。
Landscape shot(風景照):指捕捉到自然風景或城市景觀的形象,以呈現出畫面的廣闊感和氣氛。
Still life shot(靜物照):指呈現出靜止的物體或物品的形象,通常用于繪制靜物畫。
常用的視角有:
Top View(俯視):是一種從正上方的視角觀察物體的視圖。在繪畫軟件中,Top View通常用于查看和編輯平面圖形和二維圖像。
Birds-eye View(鳥瞰):是一種從高處向下的視角觀察物體的視圖。在繪畫軟件中,Bird's-eye View通常用于查看和編輯三維場景和模型。
Horizontal Angle(水平角度):是相機或視角與地面平面之間的夾角。在繪畫軟件中,通過調整水平角度可以改變繪畫作品中的景深和透視效果。
Lookup(仰視):是相機或視角相對于地面平面的仰角。在繪畫軟件中,通過調整抬頭角度可以改變繪畫作品中的高度感和遠近感。
Front View(正視):是一種從正面的視角觀察物體的視圖。在繪畫軟件中,Front View通常用于編輯三維模型的前面部分。
Side View(側視):是一種從側面的視角觀察物體的視圖。在繪畫軟件中,Side View通常用于編輯三維模型的側面部分。
Back View(背視):是一種從背面的視角觀察物體的視圖。在繪畫軟件中,Back View通常用于編輯三維模型的背面部分。
Perspective View(透視圖):是一種通過透視效果來呈現物體深度和距離的視圖。在繪畫軟件中,Perspective View通常用于編輯三維場景和模型,以便更好地模擬真實的透視效果。
POV(Point of View 攝影機視角):POV通常是指從一個特定的角度或位置觀察物體或場景的視角。在AI繪畫軟件中,POV通常用于模擬真實世界中的攝影機視角,以便更好地呈現繪畫作品。POV視角在繪畫軟件中非常有用,可以幫助藝術家更好地控制和編輯他們的作品。例如,藝術家可以使用POV視角來模擬不同的光照效果,調整攝影機的位置和角度,以便更好地捕捉畫面中的細節和氛圍。POV視角還可以用于模擬虛擬現實(VR)場景中的視角,以便更好地呈現虛擬現實體驗。
Life Drawing(寫生):指在現實中觀察人體或物體的形象,并在紙上進行繪制的技術。Life Drawing通常被認為是繪畫技巧的基礎,有助于藝術家更好地掌握形態和比例等基本概念。
Continuous Line(連續線條畫):指使用一條連續的線條來繪制整個畫面的技術。這種技術旨在捕捉物體的形態和輪廓,具有獨特的表現力和動態感。
Loose Gestural(速寫):指通過快速和松散的線條來表達人物或物體的動態和姿態。這種技術通常用于表現運動、舞蹈和其他動態場景。 這種技巧也通常用于表現感性和情感化的主題,在繪畫過程中強調藝術家的技能和風格。
Blind Contour(盲畫):指在觀察物體時將視線集中在物體上,同時不看畫紙,只使用手和筆來繪制物體的輪廓和形態。這種技術旨在培養藝術家的觀察能力和手眼協調能力。
Value Study(明暗畫法):指通過對畫面中不同區域的明暗變化進行分析和處理,以呈現出物體的形態和光影效果。這種技術通常用于繪制現實主義和寫實主義作品。
Charcoal Sketch(炭筆素描):指使用炭筆在紙上進行的快速素描。這種技術通常用于表現柔和的灰調和柔和的線條效果,具有獨特的表現力和質感。
本篇完。
本教程由 @加文三月 撰寫,其中一部分圖片和文字來自Midjourney官網資料。
本教程持續更新,請提前關注及收藏!
*請認真填寫需求信息,我們會在24小時內與您取得聯系。