原创 dropout實現過程

1、dropout可以用來防止過擬合 pytorch中實現如下: m = nn.Dropout(p=0.2) input = torch.randn(2, 5) print() output = m(input) print(in

原创 pytorch中SGD代碼解讀

調用方法: torch.optim.SGD(params, lr=<required parameter>, momentum=0, dampening=0, weight_decay=0, nesterov=False) mo

原创 uwsgi及nginx部署

端口對應:32771(宿主機的指向9800的端口)-9800(容器端口、nginx監聽端口)-9801(uwsgi端口) 調用方式: 在宿主機,curl 宿主機ip:9800/hello 在容器內,curl localhost:9

原创 nlp中的基本網絡

nlp中的文本,基本都可以表示爲[ batch, seq, embed_dim] 的形式 CNN 一般使用一維卷積,因爲一維卷積變換的是最後一個維度,所以變換文本形狀爲 [batch, embed_dim, seq]。 # 一

原创 Attention中softmax的作用

    在bert模型中的attention構造中 Q:[batch, 12, seq, dk] K:[batch, 12, seq, dk] softmax中的梯度消失      x=(a,a,2a,4a)x=(a, a, 2

原创 pytorch中Schedule與warmup_steps的用法

lr_scheduler相關 lr_scheduler = WarmupLinearSchedule(optimizer, warmup_steps=args.warmup_steps, t_total=num_train_o

原创 torch.nn.utils.rnn.pad_sequence用法

torch.nn.utils.rnn.pad_sequence(label_tokens, batch_first=True, padding_value=-1) label_tokens: list矩陣,shape=[batc