如何在 pytorch 中改变神经网络的权重

How to mutate weights of a NN in pytorch

我正在使用 pytorch 研究遗传算法,我正在寻找一种更有效的方法来改变网络的权重(对它们进行小的修改)

现在我有一个次优的解决方案,我循环遍历参数并应用随机修改。

child_agent = network()
for param in child_agent.parameters():
        if len(param.shape) == 4:  # weights of Conv2D
            for i0 in range(param.shape[0]):
                for i1 in range(param.shape[1]):
                    for i2 in range(param.shape[2]):
                        for i3 in range(param.shape[3]):
                            param[i0][i1][i2][i3] += mutation_power * np.random.randn()
        elif len(param.shape) == 2:  # weights of linear layer
            for i0 in range(param.shape[0]):
                for i1 in range(param.shape[1]):
                    param[i0][i1] += mutation_power * np.random.randn()
        elif len(param.shape) == 1:  # biases of linear layer or conv layer
            for i0 in range(param.shape[0]):
                param[i0] += mutation_power * np.random.randn()

此解决方案受限于我的体系结构,如果我决定添加更多层,则需要重新编码。有没有办法更有效和清洁地做到这一点?最好不管我的网络架构如何,它都能正常工作。

谢谢

pytorchnumpy 是面向 tensor 的,例如您对多维 array-like 对象中包含的多个项目进行操作。

您可以将整个代码更改为这一行:

import torch

child_agent = network()
for param in child_agent.parameters():
    param.data += mutation.power * torch.randn_like(param)

randn_like (docs here) 创建与 param.

形状相同的随机正态张量

此外,如果此参数需要 grad(可能需要),您应该修改它的 data 字段。

MCVE:

import torch

mutation_power = 0.4

child_agent = torch.nn.Sequential(
    torch.nn.Conv2d(1, 3, 3, padding=1), torch.nn.Linear(10, 20)
)

for param in child_agent.parameters():
    param.data += mutation_power * torch.randn_like(param)