ValueError: Usando um tamanho de destino (tocha.Tamanho([2, 1])) que é diferente do tamanho da entrada (tocha.Tamanho([16, 1])) é preterido

0

Pergunta

Eu estou tentando construir um modelo para o Quora perguntas par de conjunto de dados, onde a saída é binário 1 ou 0, mas eu recebo este erro. Eu sei que a saída formato do meu modelo é diferente da forma de entrada, mas eu não sei como corrigi-lo. O tamanho de lote é definido para 16

    class Bert_model (nn.Module):
      def __init__(self) :
        super(Bert_model,self).__init__()
        self.bert =  BertModel.from_pretrained('bert-base-uncased', return_dict=False)
        self.drop_layer = nn.Dropout(.25)
        self.output = nn.Linear(self.bert.config.hidden_size,1)
    
      def forward(self,input_ids,attention_mask):
        _,o2 = self.bert (input_ids =input_ids , attention_mask = attention_mask )
        o2 = self.drop_layer(o2)
        return self.output(o2)

    model = Bert_model()
    
    loss_fn = nn.BCELoss().to(device)

    def train_epoch(
      model, 
      data_loader, 
      loss_fn, 
      optimizer, 
      device, 
      n_examples
    ):
      model = model.train()
    
      losses = []
      correct_predictions = 0
      
      for d in data_loader:
        input_ids = d["input_ids"].to(device)
        attention_mask = d["attention_mask"].to(device)
        targets = d["target"].to(device)
    
        input_ids = input_ids.view(BATCH_SIZE,-1)
        attention_mask = attention_mask.view(BATCH_SIZE,-1)
    
        outputs = model(
          input_ids=input_ids,
          attention_mask=attention_mask
        )
    
        _, preds = torch.max(outputs, dim=1)
    
        targets = targets.unsqueeze(-1)
        loss = loss_fn(F.softmax(outputs,dim=1), targets)
    
        correct_predictions += torch.sum(preds == targets)
        losses.append(loss.item())
    
        loss.backward()
        nn.utils.clip_grad_norm_(model.parameters(), max_norm=1.0)
        optimizer.step()
        optimizer.zero_grad()
    
      return correct_predictions.double() / n_examples, np.mean(losses)

O erro:

/usr/local/lib/python3.7/dist-packages/torch/nn/functional.py in
binary_cross_entropy(input, target, weight, size_average, reduce,
reduction)    2913         weight = weight.expand(new_size)    2914 
-> 2915     return torch._C._nn.binary_cross_entropy(input, target, weight, reduction_enum)    2916     2917  ValueError: Using a target
size (torch.Size([2, 1])) that is different to the input size
(torch.Size([16, 1])) is deprecated
deep-learning pytorch
2021-11-21 11:25:25
1

Melhor resposta

0

A partir do rastreamento de pilha, o erro acontece na BCELoss cálculos, isso é devido ao fato de que o outputs.shape é (16, 1), enquanto targets.shape é (2, 1).

Eu vejo um grande problema no seu código: BCELoss é usado para comparar as distribuições de probabilidade (verifique o docs), mas seu modelo de saída tem a forma (n, 1) onde n é o tamanho do lote (em seu caso 16). Na verdade, na instrução de retorno de forward você passa o2 para um linear camada cuja saída é a forma de 1.

A Questão Pares conjunto de dados é destinado a classificação binária tarefas, então você precisa para converter o resultado em uma distribuição de probabilidade, por exemplo, usando um Sigmoid ou ajuste linear da camada de saída tamanho para 2 e, em seguida, usando a softmax.

2021-11-21 15:50:29

Além disso, você pode alternar BCELoss com CrossEntropyLoss, que é destinado para problemas de classificação binária.
aretor

eu alterar a perda de função (BCEWithLogitsLoss) que se aplica sigmóide para a saída e , em seguida, tirei o softmax . o problema ainda existe, mas agora, porque o tamanho de destino é (10,1) e diferentes a partir de entrada (16,1)
BuzzedHub

É difícil dizer o erro do seu código. Dado que 16 é o correto tamanho de lote, verifique cuidadosamente ao seu destino alterações de tamanho de 16 a 10. Por favor, evite alterar o corpo de sua pergunta de outra forma, as respostas não fará mais sentido.
aretor

Em outros idiomas

Esta página está em outros idiomas

Русский
..................................................................................................................
Italiano
..................................................................................................................
Polski
..................................................................................................................
Română
..................................................................................................................
한국어
..................................................................................................................
हिन्दी
..................................................................................................................
Français
..................................................................................................................
Türk
..................................................................................................................
Česk
..................................................................................................................
ไทย
..................................................................................................................
中文
..................................................................................................................
Español
..................................................................................................................
Slovenský
..................................................................................................................