登入
首頁
收藏
0
返回課程
20260102B
服務業管理
20260105
20260105A
20260105b
20260102
20260102A
20260102B
20260102C
20260102D
20251226
20251226A
20251226B
20251222
20251222A
20251222B
20251219
20251219A
20251219B
20251219C
20251215
20251215A
20251215B
20251215C
20251117
20251117A
20251117B
20251117C
20251110
20251110A
20251110B
20251110C
20251103
20251103A
20251103B
20251103C
索引
重點
討論
筆記
長度: 01:03, 發表時間 : 2026-01-02 19:59
觀看次數 : 10
00:05
1. index 1
00:13
2. Slide 1
00:29
3. Q1 管理 LLM 幻覺 (Hallucination) 風險的最有效技術手段是?
00:07
4. Q2 企業使用雲端 LLM API 時,為緩解Prompt 數據洩露風險,應在數據輸入前採取什麼行動?
00:01
5. Q3 Prompt 注入 (Prompt Injection) 攻擊主要試圖繞過 LLM 的哪項機制?
00:01
6. Q4 當 LLM 輸出內容存在倫理或偏見 (Bias) 風險時,組織層面應實施哪種緩解策略?
00:01
7. Q5 在 AI 應用規劃中,若 LLM 輸出錯誤導致商業損失,為了明確責任與可歸責性,規劃者必須建立什麼機制?
00:00
8. Q6 為緩解 LLM 應用帶來的成本失控風險,最直接的營運控制措施是什麼?
00:00
9. Q5 在 AI 應用規劃中,若 LLM 輸出錯誤導致商業損失,為了明確責任與可歸責性,規劃者必須建立什麼機制?
00:00
10. Q4 當 LLM 輸出內容存在倫理或偏見 (Bias) 風險時,組織層面應實施哪種緩解策略?
00:00
11. Q3 Prompt 注入 (Prompt Injection) 攻擊主要試圖繞過 LLM 的哪項機制?
附件
長度: 01:03, 發表時間 : 2026-01-02 19:59
觀看次數 : 10
附件
此教材已將討論功能關閉
筆記功能僅開放給課程成員,請先加入課程
Prev
20260102A
Next
20260102C