登入首頁
收藏 0
返回課程
藝術生成 Stable Diffusion與Denoising Diffusion Model(1120)
  • 機器學習研討
  • 機器學習簡介
  • 登錄後請說hello
  • AI軟體mediapipe簡介與demo操作
  • copilot詢問python雲端開發平台Google colab並實作
  • tensorflow-gpu keras ML python套件軟體安裝說明
  • 機器學習911課程 課程說明
  • 生物視覺&機器視覺
  • 分組
  • AI_ML生物視覺機器視覺
  • 生物視覺 機器視覺1
  • 機器視覺 與haarcascades偵測人臉與眼睛(918)
  • python雲端開發平台Google colab
  • ex1 請在google colab上完成一簡易python code
  • 機器學習918 google colab 實作python
  • 機器視覺ILSVRC競賽之後
  • tensorflow playground(925)
  • activation函數&自然語言處理
  • 自然語言處理 Natural language Processing簡介
  • 自然語言處理 Natural language Processing
  • 機器學習925tensorflow ground與自然語言處理Word2viz
  • 自然語言處理 Natural language Processing 字詞量化
  • ML常用的activation函數初探與pyplot繪圖(1009)
  • [1009]小測驗
  • 機器學習1007激活函數python作業測驗檢討
  • openAI-whisper
  • openai whisper在huggingface的試用與在colab上的使用(1016)
  • 問whisper於chatGPT
  • openai_whisper_ex0.ipynb
  • 免費版Openai-whisper超好用---簡介與python語音前置處理
  • 機器學習1016 whisper課堂簡介
  • openAI whisper large v3 python轉VTT字幕
  • whisper超好用---Google Colab python cuda語音辨識程式產生字幕檔(1023)
  • openai-whisper超好用
  • whisper辨識與ffmpeg切割影音與調整字幕之一
  • whisper辨識與ffmpeg切割影音與調整字幕之二colab實測
  • ex2 openai-whisper試用
  • 藝術生成 & 對抗生成式網路GAN與其他......
  • 藝術生成---對抗式生成網路GAN 與dall-e whichfaceisreal操作(1030)
  • 藝術生成 對抗式生成網路GAN與賽局理論 cycleGan等
  • 藝術生成GAN pdf
  • Hugging Face的ai網站體驗(1106)
  • GAN家族 cGAN, styleGAN與Image Translation with pix2pix-tensorflow(1113)
  • 對抗式生成式AI GAN與相關軟體操作(穿插Stable diffusion)
  • Stable diffusion簡介與實作
  • 藝術生成 Stable Diffusion與Denoising Diffusion Model(1120)
  • 藝術生成_dall-e與_stable_Diffusion
  • ai產生影片stable video diffusion 在google colab上python實作
  • ipython code: stable_diffusion_3_with _kerasHub.ipynb
  • AI機器學習與Stable Diffusion操作
  • AI機器學習與Stable Diffusion 3 in KerasHub在免費Colab上實作
  • ex3 AI圖藝術生成
  • Keras實作神經網路模型---手寫數字辨識
  • Keras實作神經網路模型之1 mnist手寫數字
  • Keras實作神經網路模型之2 mnist手寫數字辨識(1127)
  • AI機器學習Keras淺層神經網路辨識mnist手寫數字
  • Keras實作神經網路模型
  • 神經網路模型之一 從感知器到神經網路
  • 神經網路模型之2 單一神經元python numpy計算
  • 多神經網路模型
  • 多層神經網路Keras python實作練習(1204)
  • 多層神經網路模型v2
  • 神經網路模型
  • Keras多層神經網路辨識手寫數字mnist實作V3
  • CNN卷積神經網路
  • Keras實作CNN辨識mnist手寫數字
  • CNN卷積神經網路(1211)
  • Loss函數 cross entropy 梯度下降
  • Loss函數、梯度下降、batch size etc
  • 機器學習CNN卷積計算辨識mnist手寫數字
  • 進階CNN
  • Keras仿AlexNet訓練辨識tflearn花朵資料集oxflower17(1218)
  • 進階CNN
  • 2024 CNN模型仿AlexNet.ipynb
  • 2024 Keras跑仿AlexNet辨識oxflower17處理在Colab上的諸多坑
  • 進階CNN技巧實作仿AlexNet訓練辨識oxflower17達97趴辨識率(1225)
  • python Keras如何使用仿AlexNet針對oxflower達到99趴以上的辨識率之一
  • python Keras使用仿AlexNet針對oxflower達到100趴的辨識率實測
  • 期末報告
  • 期末作業
  • 重點
  • 討論 (1)
  • 共享筆記 (3)
  • 筆記
發表時間 : 2024-11-16 21:08
觀看次數 : 139
原始資料來自 : https://www.youtube.com/embed/Y_IsJk6TBBI?si=pFKcHBWx_-1XMkqf
附件
討論功能僅開放給課程成員,請先加入課程
最新的回應 ...more
2024-12-11
M11333012 : 1. 架構和核心概念 Stable Diffusion 是基於**擴散模型(Diffusion Models)**的一種生成技術。它使用隨機噪聲逐步還原數據的過程來生成樣本,從而生成高品質的圖像。 核心思想:模擬從噪聲中學習數據的分布,通過反向擴散過程逐步生成數據。 特點:依賴於馬爾科夫鏈來逐步消除噪聲,生成穩定且細緻的圖像。 GAN(Generative Adversarial Networks) GAN由兩個網絡組成:生成器(Generator)和判別器(Discriminator)。這兩者通過對抗訓練(Adversarial Training)來改進生成結果。 核心思想:生成器試圖生成逼真的數據,判別器試圖區分生成數據和真實數據。 特點:生成器和判別器互相對抗,直到生成器能生成足以欺騙判別器的樣本。 2. 訓練方式 Stable Diffusion 訓練時需要模擬**前向擴散(添加噪聲)和反向擴散(去噪)**兩個過程。 通常需要較長的訓練時間,因為生成過程包含多個步驟。 訓練更加穩定,容易控制生成結果的質量。 GAN 訓練過程是生成器和判別器之間的對抗過程。 訓練可能不穩定,容易出現模式崩潰(Mode Collapse)或收斂問題。 訓練速度通常比Stable Diffusion快,但需要更多調參來保證穩定性。 3. 生成過程 Stable Diffusion 通過一個逐步去噪的過程生成樣本,每一步需要計算,生成較慢。 可以很自然地控制生成樣本的細節,例如通過調整噪聲水平或條件輸入。 GAN 通過生成器一次性生成整個樣本,生成速度較快。 控制生成結果較困難,尤其是對特定細節進行精確調整。 4. 應用場景 Stable Diffusion 擴散模型更適合生成高解析度、細緻的圖像,例如藝術創作或圖片修復。 支持條件生成(例如文本到圖像生成,Text-to-Image),如應用於工具如DALL-E 2和Stable Diffusion。 GAN 更適合生成快速的低解析度圖像或特定領域的樣本(例如人臉生成、風格轉換、圖像超解析)。 常用於增強現有數據集或風格化的應用。 總結 Stable Diffusion:強調逐步生成,細緻控制,擅長高質量圖像生成。 GAN:通過對抗學習,快速生成樣本,但訓練穩定性不如擴散模型。 兩者各有優勢,適用於不同需求和場景。
2024-11-29
M11333001 : Stable Diffusion與GAN的主要區別在於架構和生成方式。 GAN透過生成器和判別器的對抗訓練生成圖像,速度較快,但易出現模式崩潰;而Stable Diffusion則使用逐步去噪的方式生成圖像,穩定性高但速度較慢。
2024-11-20
B11033101 : Stable Diffusion 使用擴散過程生成圖像,訓練穩定,適合文本引導生成;而 GAN 通過對抗性訓練生成圖像,訓練過程較為複雜。
2024-11-20
B11033056 : Stable Diffusion和GAN是兩種不同的生成模型: 生成方式:GAN通過生成器和判別器對抗訓練來生成圖像;Stable Diffusion則是通過將圖像轉換為噪聲,然後反向擴散來生成圖像。 訓練過程:GAN訓練較為複雜且容易不穩定;Stable Diffusion則訓練較穩定。 生成過程:GAN從隨機噪聲生成圖像;Stable Diffusion從噪聲中逐步去噪恢復圖像。 質量與多樣性:GAN生成的圖像質量高但有時多樣性差;Stable Diffusion則能生成更清晰且多樣化的圖像。
2024-11-20
M11333006 : Stable Diffusion與GAN的主要區別在於架構和生成方式。 GAN透過生成器和判別器的對抗訓練生成圖像,速度較快,但易出現模式崩潰;而Stable Diffusion則使用逐步去噪的方式生成圖像,穩定性高但速度較慢。
安文
請大致說明Stable Diffusion與GAN的不同之處
2024-11-20 1 樓
顯示先前的回應7 則當中的 3 則
b11033041
GAN利用生成器和判別器的對抗訓練來生成圖像,但訓練過程較為不穩定。
Stable Diffusion基於噪聲擴散過程生成圖像,訓練過程更穩定,並且能夠產生高質量的多樣化圖像。
這兩種技術各有優勢,選擇使用哪一種取決於具體的應用需求和目標。
2024-11-20 2 樓
m11333015
Stable Diffusion和GAN的区别主要在于生成图像的方法和训练的稳定性。 Stable Diffusion使用扩散过程生成图像,训练过程稳定;而GAN使用对抗训练生成图像,训练过程不太稳定。
GAN方法的优点是可以生成逼真的图像,但训练过程通常不够稳定,容易出现模式崩溃或者训练不收敛的问题。
2024-11-20 3 樓
M11333006
Stable Diffusion與GAN的主要區別在於架構和生成方式。
GAN透過生成器和判別器的對抗訓練生成圖像,速度較快,但易出現模式崩潰;而Stable Diffusion則使用逐步去噪的方式生成圖像,穩定性高但速度較慢。
2024-11-20 4 樓
B11033056
Stable Diffusion和GAN是兩種不同的生成模型:

生成方式:GAN通過生成器和判別器對抗訓練來生成圖像;Stable Diffusion則是通過將圖像轉換為噪聲,然後反向擴散來生成圖像。
訓練過程:GAN訓練較為複雜且容易不穩定;Stable Diffusion則訓練較穩定。
生成過程:GAN從隨機噪聲生成圖像;Stable Diffusion從噪聲中逐步去噪恢復圖像。
質量與多樣性:GAN生成的圖像質量高但有時多樣性差;Stable Diffusion則能生成更清晰且多樣化的圖像。
2024-11-20 5 樓
B11033101
Stable Diffusion 使用擴散過程生成圖像,訓練穩定,適合文本引導生成;而 GAN 通過對抗性訓練生成圖像,訓練過程較為複雜。
2024-11-20 6 樓
M11333001
Stable Diffusion與GAN的主要區別在於架構和生成方式。
GAN透過生成器和判別器的對抗訓練生成圖像,速度較快,但易出現模式崩潰;而Stable Diffusion則使用逐步去噪的方式生成圖像,穩定性高但速度較慢。
2024-11-29 7 樓
M11333012
1. 架構和核心概念
Stable Diffusion
是基於**擴散模型(Diffusion Models)**的一種生成技術。它使用隨機噪聲逐步還原數據的過程來生成樣本,從而生成高品質的圖像。
核心思想:模擬從噪聲中學習數據的分布,通過反向擴散過程逐步生成數據。
特點:依賴於馬爾科夫鏈來逐步消除噪聲,生成穩定且細緻的圖像。
GAN(Generative Adversarial Networks)
GAN由兩個網絡組成:生成器(Generator)和判別器(Discriminator)。這兩者通過對抗訓練(Adversarial Training)來改進生成結果。
核心思想:生成器試圖生成逼真的數據,判別器試圖區分生成數據和真實數據。
特點:生成器和判別器互相對抗,直到生成器能生成足以欺騙判別器的樣本。
2. 訓練方式
Stable Diffusion
訓練時需要模擬**前向擴散(添加噪聲)和反向擴散(去噪)**兩個過程。
通常需要較長的訓練時間,因為生成過程包含多個步驟。
訓練更加穩定,容易控制生成結果的質量。
GAN
訓練過程是生成器和判別器之間的對抗過程。
訓練可能不穩定,容易出現模式崩潰(Mode Collapse)或收斂問題。
訓練速度通常比Stable Diffusion快,但需要更多調參來保證穩定性。
3. 生成過程
Stable Diffusion
通過一個逐步去噪的過程生成樣本,每一步需要計算,生成較慢。
可以很自然地控制生成樣本的細節,例如通過調整噪聲水平或條件輸入。
GAN
通過生成器一次性生成整個樣本,生成速度較快。
控制生成結果較困難,尤其是對特定細節進行精確調整。
4. 應用場景
Stable Diffusion
擴散模型更適合生成高解析度、細緻的圖像,例如藝術創作或圖片修復。
支持條件生成(例如文本到圖像生成,Text-to-Image),如應用於工具如DALL-E 2和Stable Diffusion。
GAN
更適合生成快速的低解析度圖像或特定領域的樣本(例如人臉生成、風格轉換、圖像超解析)。
常用於增強現有數據集或風格化的應用。
總結
Stable Diffusion:強調逐步生成,細緻控制,擅長高質量圖像生成。
GAN:通過對抗學習,快速生成樣本,但訓練穩定性不如擴散模型。
兩者各有優勢,適用於不同需求和場景。
2024-12-11 8 樓
筆記功能僅開放給課程成員,請先加入課程
Prev
Stable diffusion簡介與實作
Next
藝術生成_dall-e與_stable_Diffusion