<?xml version="1.0" encoding="utf-8"?>
<oembed><version>1.0</version><provider_name>Camdemy1.0</provider_name><provider_url>http://eclass.uch.edu.tw</provider_url><title>20230605D</title><description></description><author_name></author_name><author_url>http://eclass.uch.edu.tw/user/</author_url><converting>0</converting><thumbnail_url>http://eclass.uch.edu.tw/sysdata/doc/2/2cbe0d550e20f4a6/thumb_l.jpg</thumbnail_url><thumbnail_height>360</thumbnail_height><thumbnail_width>640</thumbnail_width><html>&amp;lt;iframe width='720' height='405' id='ccShare27657' frameborder='0' scrolling='no' src='http://eclass.uch.edu.tw/media/e/27657'&amp;gt;&amp;lt;/iframe&amp;gt;</html><type>video</type><width>720</width><height>405</height><duration>12:21</duration><index><item_1><title>index 1</title><time>0</time><indent>0</indent><sn>1</sn></item_1><item_2><title>12-0   資料分類 (classification)</title><time>62690</time><indent>0</indent><sn>2</sn></item_2><item_3><title>12-1   KNN (K 近鄰) 預測模型</title><time>63190</time><indent>0</indent><sn>3</sn></item_3><item_4><title>12-1   KNN (K 近鄰) 預測模型</title><time>63640</time><indent>0</indent><sn>4</sn></item_4><item_5><title>12-1   KNN (K 近鄰) 預測模型</title><time>63990</time><indent>0</indent><sn>5</sn></item_5><item_6><title>匯入並分割資料集</title><time>64440</time><indent>0</indent><sn>6</sn></item_6><item_7><title>建立 KNN 模型來預測分類</title><time>64990</time><indent>0</indent><sn>7</sn></item_7><item_8><title>評估預測結果</title><time>64990</time><indent>0</indent><sn>8</sn></item_8><item_9><title>評估預測結果</title><time>65290</time><indent>0</indent><sn>9</sn></item_9><item_10><title>評估預測結果</title><time>65990</time><indent>0</indent><sn>10</sn></item_10><item_11><title>如何找出最適合的 K 值？</title><time>66290</time><indent>0</indent><sn>11</sn></item_11><item_12><title>12-2   邏輯斯 (Logistic) 迴歸模型</title><time>66290</time><indent>0</indent><sn>12</sn></item_12><item_13><title>邏輯斯迴歸 (Logistic Regression)：二分法分類器</title><time>66590</time><indent>0</indent><sn>13</sn></item_13><item_14><title>邏輯斯迴歸如何分類</title><time>66890</time><indent>0</indent><sn>14</sn></item_14><item_15><title>訓練邏輯斯迴歸模型並預測資料</title><time>67290</time><indent>0</indent><sn>15</sn></item_15><item_16><title>訓練邏輯斯迴歸模型並預測資料</title><time>67690</time><indent>0</indent><sn>16</sn></item_16><item_17><title>評估預測成效</title><time>68140</time><indent>0</indent><sn>17</sn></item_17><item_18><title>12-3   改善邏輯斯迴歸模型</title><time>68490</time><indent>0</indent><sn>18</sn></item_18><item_19><title>12-3-0  增加迭代次數</title><time>69140</time><indent>0</indent><sn>19</sn></item_19><item_20><title>12-3-1  資料標準化 (standardization)</title><time>69490</time><indent>0</indent><sn>20</sn></item_20><item_21><title>12-4   主成分分析 (PCA)：           減少需分析的變數</title><time>70040</time><indent>0</indent><sn>21</sn></item_21><item_22><title>特徵值很多的手寫數字圖片資料集</title><time>72740</time><indent>0</indent><sn>22</sn></item_22><item_23><title>特徵值很多的手寫數字圖片資料集</title><time>85140</time><indent>0</indent><sn>23</sn></item_23><item_24><title>用線性支援向量機建立預測模型</title><time>123090</time><indent>0</indent><sn>24</sn></item_24><item_25><title>** after F0753_ch12 (3).pptx</title><time>127440</time><indent>0</indent><sn>25</sn></item_25></index><resolution><playtype>fs</playtype><subtype></subtype><src>1920x1080</src><mp4>720x404</mp4><mp4_hd>1280x720</mp4_hd><mp4_1920>1920x1080</mp4_1920><mp4_4k></mp4_4k><mp4_src></mp4_src><mp4_base></mp4_base></resolution><base_image><thumb>http://eclass.uch.edu.tw/sysdata/doc/2/2cbe0d550e20f4a6/thumb.jpg</thumb><cover>http://eclass.uch.edu.tw/sysdata/doc/2/2cbe0d550e20f4a6/cover.jpg</cover><storyboard>http://eclass.uch.edu.tw/sysdata/doc/2/2cbe0d550e20f4a6/video/thumbs/storyboard.jpg</storyboard></base_image><srcFrom></srcFrom><base_url>http://eclass.uch.edu.tw/sysdata/doc/2/2cbe0d550e20f4a6</base_url><status>1</status></oembed>
