私は高専卒業後,某電力会社で計装保全業務を担当するプラントエンジニアです.保全計画の策定(長期工事計画の策定、方針作成、予算編成)、工事実施(工事設計、工事管理、工事結果確認、検収)、各種保全情報に基づく評価(不具合懸案評価、点検手入れ前評価)、保全標準(点検内容・周期・方式)の見直しというPDCAサイクルを回し、保全活動の継続的な改善、保全の有効性評価による機器の保全最適化を実施しています.
高専 (NIT; National Institute of Technology)#
電気電子工学を専攻し,理論電気磁気学,
∂μFμν=μ0Jν,ϵμνρσ∂νFρσ=0,dτdpμ=qFμνuν半導体デバイス,電気回路,電子回路,パワエレ,電気機器学,古典・現代制御工学,
電力工学,論理学(述語論理),論理回路,プログラミング,情報通信概論などについて学びました.卒業研究ではオフライン強化学習アルゴリズムの提案に取り組みました.研究テーマは,CQL(Conservative Q-Learning)アルゴリズムの単純化と,識別ネットワークを用いた分布シフトの定量化です.
強化学習(RL; Reinforcement Learning)とは,最適な意思決定のルールを求めることを目的とする分野であり,専門的になりますが,全ての軌道の割引累積報酬を最大化する最適な方策
π⋆≜πargmaxEτ∼pπ(⋅)[t=0∑Hγtr(st,at)],pπ(τ)≜ρ0(s0)t=0∏Hπ(at∣st)T(st+1∣st,at)τ≜(s0,a0,⋯,sH),M=(S,A,T,ρ0,r,γ)を環境との相互作用により見出すことが目的となります.オフライン強化学習では,以前に収集した大規模なデータセットD={(st,at,rt,st+1,dt)i}を活用する強化学習の変種です.
この研究を通じて,強化学習における理論と実装,そしてアイディアを形にする面白さを味わうことができました.
Waiting for api.github.com...
上記アルゴリズムの損失関数を参考までに掲載:
LD(ξ)=E(s,a)∼D,a~∼πϕ(⋅∣s)[log(Dξ(a∣s))+log(1−Dξ(a~∣s))]lossD = 0.5 * F.binary_cross_entropy(
disc_real, torch.ones_like(disc_real)
) + 0.5 * F.binary_cross_entropy(
disc_fake, torch.zeros_like(disc_fake)
TπQ(s,a)≜r(s,a)+γEs′∼T(⋅∣s,a),a~′∼πϕ(⋅∣s′)[j=1,2minQθj(s,a)−αlogπϕ(a~′∣s′)]LQ(θi)=E(s,a)∼D[21(Qθi(s,a)−TπQ(s,a))2]+λQEs∼D,a~∼πϕ(⋅∣s)[(1−Dξ(a~∣s))Qθi(s,a~)] (1 - disc_fake.detach()) * self.critic1(obs, _a)
(1 - disc_fake.detach()) * self.critic2(obs, _a)
qf1_loss = F.mse_loss(q1_pred, q_target) + self.lam * qf1_ood_loss
qf2_loss = F.mse_loss(q2_pred, q_target) + self.lam * qf2_ood_loss
Lπ(ϕ)=Es∼D,ϵ∼N(0,1)[αlogπϕ(fϕ(s,ϵ)∣s)−j=1,2minQθj(s,fϕ(s,ϵ))]fϕ(s,ϵ)≜tanh(μϕ(s)+σϕ(s)⊙ϵ)policy_loss = (alpha * log_pi - q_new_actions).mean()
TIP当ブログでは,強化学習の理論的枠組み並びに実装技術について論じております.ご一読いただければ誠に幸いです.