主要内容GydF4y2Ba

最新のリリースは,このページがまだ翻訳されいません。GydF4y2Baこのこのの最新版版は英语でご覧になれます。GydF4y2Ba

深度学习工具箱GydF4y2Baでの自动分支の使用GydF4y2Ba

自动分数を使使たカスタム习と计算GydF4y2Ba

自动分数は,カスタム学习,カスタム层,および深层学习をそのカスタマイズの作物。GydF4y2Ba

一般的に,深层学习における学习をカスタマイズする最も简単な,GydF4y2Badlnetwork.GydF4y2Baを作成することです。必要な层をネットワークに含めます。次に,ある种の勾配降下を使用して,カスタムループの学习を実行します。ここで,勾配は目的关数の勾配です。目的关数には,分享误差,交差交差,またはネットワークの重みのその他关键字关键词。GydF4y2Badlarrayをサポートする关键数字の一流GydF4y2Baを参照してください。GydF4y2Ba

次の例は,高度なカスタム学习ループ示し示し。ここここ,GydF4y2BaFGydF4y2Baはは损失などのの的关词,GydF4y2BaGGydF4y2BaはネットワークGydF4y2Ba网GydF4y2Baの重みについてのの目的关键词のです。关键词GydF4y2Ba更新GydF4y2Baは,ある种の勾配降を表します。GydF4y2Ba

%高级训练循环GydF4y2Ban = 1;GydF4y2Ba尽管GydF4y2Ba(n 结尾GydF4y2Ba

dlfeval.GydF4y2Baををて目的关节数と勾配数码を计算しますますます。勾配勾配自动计算を有效にには,データGydF4y2BaDLX.GydF4y2BaがGydF4y2Badlarray.GydF4y2Baでなければなりません。GydF4y2Ba

dlx = dlarray(x);GydF4y2Ba

目的关键词GydF4y2BaDlgradient.GydF4y2Baのの呼び出しによる勾配勾配のが含まれれGydF4y2BaDlgradient.GydF4y2Baの呼び出しは,GydF4y2Badlfeval.GydF4y2Baででを行关有关部に含まれいなければません。GydF4y2Ba

功能GydF4y2Ba[f,g] =模型(net,dlx,t)GydF4y2Ba%计算目标使用支持的dlarray函数金宝appGydF4y2BaY =前进(NET,DLX);f = fcnvalue(y,t);GydF4y2Ba%联字段或类似GydF4y2Bag = dlgradient(f,net.learnables);GydF4y2Ba%自动梯度GydF4y2Ba结尾GydF4y2Ba

简介なGydF4y2Badlfeval.GydF4y2Ba-GydF4y2BaDlgradient.GydF4y2Ba-GydF4y2Badlarray.GydF4y2Ba构文でのGydF4y2Badlnetwork.GydF4y2Baの使用例は,GydF4y2BaGRAD-CAMでの深层学习による判定の理念の明GydF4y2Baを参照してください。カスタム学习ループを使使用するさらに复雑なは,GydF4y2Ba敌対的生成ネットワーク(GaN)の学习GydF4y2Baを参照してください。自动分配を使するする学习のは,GydF4y2Baカスタム学习ループ,损失关联,およびネットワークの定义GydF4y2Baを参照してください。GydF4y2Ba

自动分数へのGydF4y2BaDlgradient.GydF4y2BaとGydF4y2Badlfeval.GydF4y2Baの并用GydF4y2Ba

自动分配ををは,关键词,关键词GydF4y2BaDlgradient.GydF4y2Baを呼び出し,GydF4y2Badlfeval.GydF4y2Baをを使し点ませんんんん。GydF4y2Badlarray.GydF4y2Baこれにより,データ构造ががさ,评価のトレースが有关にます。GydF4y2Ba

功能GydF4y2Ba[f,grad] = rosenbrock(x)f = 100 *(x(2) -  x(1)。^ 2)。^ 2 +(1  -  x(1))。^ 2;Grad = Dlgradient(F,x);GydF4y2Ba结尾GydF4y2Ba

点GydF4y2BaX0.GydF4y2Ba= [-1,2]でrosenbrock关节の値とととします。rosenbrock关节自动分数を有条学ににはGydF4y2BaX0.GydF4y2BaをGydF4y2Badlarray.GydF4y2Baとしてとしてます。GydF4y2Ba

x0 = dlarray([ -  1,2]);[fval,gradval] = dlfeval(@ rosenbrock,x0)GydF4y2Ba
fval = 1x1 dlarray 104 gradval = 1x2 dlarray 396 200GydF4y2Ba

自动分数の使使,GydF4y2BaGRAD-CAMでの深层学习による判定の理念の明GydF4y2Baを参照してください。GydF4y2Ba

微分のトレースGydF4y2Ba

勾配勾配数码的に评価するにに,GydF4y2Badlarray.GydF4y2Baは,GydF4y2Ba自动分数の背景GydF4y2Baこの说のするに,リバースモードのはのデータ构造をし。GydF4y2Ba“トレース”GydF4y2Baです。自动分别ととトレース际际に,次のガイドラインにししください。GydF4y2Ba

  • 新闻GydF4y2Badlarray.GydF4y2Baををオブジェクトについてについて示し次ないでを示しくださいないでで含め含めでで含め含め含め含め含め含め含め含めででででででで含め含め含め含め含め目含め目目目目目目目目目目目ででで目でで目でlGydF4y2Ba

    功能GydF4y2Ba[dy,dy1] =有趣(x1)x2 = dlarray(0);y = x1 + x2;dy = dlgradient(y,x2);GydF4y2Ba%错误:X2未经许可GydF4y2BaDY1 = DLGRADIENT(Y,X1);GydF4y2Ba即使y有未分配的部分,百分比也不出错GydF4y2Ba结尾GydF4y2Ba
  • 提取数据GydF4y2Baをを行う,トレースが破损とます。GydF4y2Ba

    fun = @(x)dlgradient(x + atan(提取数据(x)),x);GydF4y2Ba由于领先的“X”术语,任何点的%梯度都是1。GydF4y2Badlfeval(乐趣,dlarray(2.5))GydF4y2Ba
    ans = 1x1 dlarray 1GydF4y2Ba

    ただし,GydF4y2Ba提取数据GydF4y2Baをを使する,従属函数から新闻独立独立をできます。GydF4y2Ba

  • サポートされている关键のみのみ使使使ください。GydF4y2Badlarrayをサポートする关键数字の一流GydF4y2Baををしてください。GydF4y2Ba

自动分数の特价GydF4y2Ba

  • 自动分数ををはした勾配は,スカラー値关键に対してのみえ。中间人を使ますがをませんんなければませんんませませんがばなりんがませなりんんんませんんんんんんんんんんんんんんんませませませませませませませませ关节の必要があるあるあるあるある取得するがますののしし。GydF4y2BaDlgradient.GydF4y2Baの名前と値ののペアペア数GydF4y2Ba'etaindata'GydF4y2BaをGydF4y2Ba真的GydF4y2Baに设定することを検讨してください。GydF4y2Ba

  • Dlgradient.GydF4y2Baたとえば,关键词,所说的をと,特点ののれでのが论値がない场。GydF4y2Ba雷GydF4y2BaのGydF4y2BaRelu(x)= max(x,0)GydF4y2BaはGydF4y2Bax = 0.GydF4y2Baでは微分不可です。一方,GydF4y2BaDlgradient.GydF4y2Baはは分の値を返します。GydF4y2Ba

    x = dlarray(0);Y = DLFeval(@(t)dlgradient(Relu(T),T),x)GydF4y2Ba
    y = 1x1 dlarray 0GydF4y2Ba

    近傍点GydF4y2Baeps.GydF4y2Baでの値は异なります。GydF4y2Ba

    x = dlarray(eps);Y = DLFeval(@(t)dlgradient(Relu(T),T),x)GydF4y2Ba
    y = 1x1 dlarray 1GydF4y2Ba
  • 在里面,GydF4y2Badlarray.GydF4y2Baつまりでは数の高度微を使使ませ。つまり,GydF4y2BaDlgradient.GydF4y2Baを2回呼び出して2阶微阶微を计算することはできませませませませませGydF4y2Ba

参考GydF4y2Ba

|GydF4y2Ba|GydF4y2Ba|GydF4y2Ba

关键词トピックGydF4y2Ba