如何在 pytorch 中改变神经网络的权重
How to mutate weights of a NN in pytorch
我正在使用 pytorch 研究遗传算法,我正在寻找一种更有效的方法来改变网络的权重(对它们进行小的修改)
现在我有一个次优的解决方案,我循环遍历参数并应用随机修改。
child_agent = network()
for param in child_agent.parameters():
if len(param.shape) == 4: # weights of Conv2D
for i0 in range(param.shape[0]):
for i1 in range(param.shape[1]):
for i2 in range(param.shape[2]):
for i3 in range(param.shape[3]):
param[i0][i1][i2][i3] += mutation_power * np.random.randn()
elif len(param.shape) == 2: # weights of linear layer
for i0 in range(param.shape[0]):
for i1 in range(param.shape[1]):
param[i0][i1] += mutation_power * np.random.randn()
elif len(param.shape) == 1: # biases of linear layer or conv layer
for i0 in range(param.shape[0]):
param[i0] += mutation_power * np.random.randn()
此解决方案受限于我的体系结构,如果我决定添加更多层,则需要重新编码。有没有办法更有效和清洁地做到这一点?最好不管我的网络架构如何,它都能正常工作。
谢谢
pytorch
和 numpy
是面向 tensor
的,例如您对多维 array-like 对象中包含的多个项目进行操作。
您可以将整个代码更改为这一行:
import torch
child_agent = network()
for param in child_agent.parameters():
param.data += mutation.power * torch.randn_like(param)
randn_like
(docs here) 创建与 param
.
形状相同的随机正态张量
此外,如果此参数需要 grad
(可能需要),您应该修改它的 data
字段。
MCVE:
import torch
mutation_power = 0.4
child_agent = torch.nn.Sequential(
torch.nn.Conv2d(1, 3, 3, padding=1), torch.nn.Linear(10, 20)
)
for param in child_agent.parameters():
param.data += mutation_power * torch.randn_like(param)
我正在使用 pytorch 研究遗传算法,我正在寻找一种更有效的方法来改变网络的权重(对它们进行小的修改)
现在我有一个次优的解决方案,我循环遍历参数并应用随机修改。
child_agent = network()
for param in child_agent.parameters():
if len(param.shape) == 4: # weights of Conv2D
for i0 in range(param.shape[0]):
for i1 in range(param.shape[1]):
for i2 in range(param.shape[2]):
for i3 in range(param.shape[3]):
param[i0][i1][i2][i3] += mutation_power * np.random.randn()
elif len(param.shape) == 2: # weights of linear layer
for i0 in range(param.shape[0]):
for i1 in range(param.shape[1]):
param[i0][i1] += mutation_power * np.random.randn()
elif len(param.shape) == 1: # biases of linear layer or conv layer
for i0 in range(param.shape[0]):
param[i0] += mutation_power * np.random.randn()
此解决方案受限于我的体系结构,如果我决定添加更多层,则需要重新编码。有没有办法更有效和清洁地做到这一点?最好不管我的网络架构如何,它都能正常工作。
谢谢
pytorch
和 numpy
是面向 tensor
的,例如您对多维 array-like 对象中包含的多个项目进行操作。
您可以将整个代码更改为这一行:
import torch
child_agent = network()
for param in child_agent.parameters():
param.data += mutation.power * torch.randn_like(param)
randn_like
(docs here) 创建与 param
.
此外,如果此参数需要 grad
(可能需要),您应该修改它的 data
字段。
MCVE:
import torch
mutation_power = 0.4
child_agent = torch.nn.Sequential(
torch.nn.Conv2d(1, 3, 3, padding=1), torch.nn.Linear(10, 20)
)
for param in child_agent.parameters():
param.data += mutation_power * torch.randn_like(param)