ValueError: l'Utilizzo di una dimensione di destinazione (torcia.Dimensioni([2, 1])) che è diverso da ingresso dimensioni (torcia.Dimensioni([16, 1])) è deprecato

0

Domanda

Sto cercando di costruire un modello per la Quora domande coppia di set di dati di cui l'uscita è binario 1 o 0, ma mi da questo errore. So che l'uscita forma del mio modello è diverso dall'ingresso di forma, ma non so come risolvere il problema. La dimensione del lotto è impostato a 16

    class Bert_model (nn.Module):
      def __init__(self) :
        super(Bert_model,self).__init__()
        self.bert =  BertModel.from_pretrained('bert-base-uncased', return_dict=False)
        self.drop_layer = nn.Dropout(.25)
        self.output = nn.Linear(self.bert.config.hidden_size,1)
    
      def forward(self,input_ids,attention_mask):
        _,o2 = self.bert (input_ids =input_ids , attention_mask = attention_mask )
        o2 = self.drop_layer(o2)
        return self.output(o2)

    model = Bert_model()
    
    loss_fn = nn.BCELoss().to(device)

    def train_epoch(
      model, 
      data_loader, 
      loss_fn, 
      optimizer, 
      device, 
      n_examples
    ):
      model = model.train()
    
      losses = []
      correct_predictions = 0
      
      for d in data_loader:
        input_ids = d["input_ids"].to(device)
        attention_mask = d["attention_mask"].to(device)
        targets = d["target"].to(device)
    
        input_ids = input_ids.view(BATCH_SIZE,-1)
        attention_mask = attention_mask.view(BATCH_SIZE,-1)
    
        outputs = model(
          input_ids=input_ids,
          attention_mask=attention_mask
        )
    
        _, preds = torch.max(outputs, dim=1)
    
        targets = targets.unsqueeze(-1)
        loss = loss_fn(F.softmax(outputs,dim=1), targets)
    
        correct_predictions += torch.sum(preds == targets)
        losses.append(loss.item())
    
        loss.backward()
        nn.utils.clip_grad_norm_(model.parameters(), max_norm=1.0)
        optimizer.step()
        optimizer.zero_grad()
    
      return correct_predictions.double() / n_examples, np.mean(losses)

Il messaggio di errore:

/usr/local/lib/python3.7/dist-packages/torch/nn/functional.py in
binary_cross_entropy(input, target, weight, size_average, reduce,
reduction)    2913         weight = weight.expand(new_size)    2914 
-> 2915     return torch._C._nn.binary_cross_entropy(input, target, weight, reduction_enum)    2916     2917  ValueError: Using a target
size (torch.Size([2, 1])) that is different to the input size
(torch.Size([16, 1])) is deprecated
deep-learning pytorch
2021-11-21 11:25:25
1

Migliore risposta

0

Dall'analisi dello stack, l'errore si verifica in BCELoss calcoli, questo è dovuto al fatto che il outputs.shape è (16, 1)mentre targets.shape è (2, 1).

Vedo un grande problema nel tuo codice: BCELoss viene utilizzato per confrontare le distribuzioni di probabilità (controllare i documenti), ma il modello di uscita ha la forma (n, 1) dove n è la dimensione del lotto (nel tuo caso 16). Infatti nell'istruzione return di forward si passa o2 lineare strato la cui forma è uscita 1.

La Questione Coppie di set di dati si intende per binario attività di classificazione, quindi è necessario convertire l'output in una distribuzione di probabilità, per esempio, utilizzando un Sigmoid o l'impostazione lineare strato di output size 2, e quindi utilizzando il softmax.

2021-11-21 15:50:29

Inoltre è possibile passare BCELoss con CrossEntropyLoss, che è destinato a binario problemi di classificazione.
aretor

io cambio la perdita di funzione (BCEWithLogitsLoss) che si applica sigma per l'uscita , poi ho tolto il softmax . il problema esiste ancora, ma ora, poiché la dimensione di destinazione è (10,1) e diverso da ingresso (16,1)
BuzzedHub

È difficile dire l'errore dal codice. Dato che 16 è la corretta dimensione del lotto, controllare attentamente quando il vostro target di modifiche di dimensioni da 16 a 10. Si prega di evitare di modificare il corpo della tua domanda, altrimenti le risposte non ha più senso.
aretor

In altre lingue

Questa pagina è in altre lingue

Русский
..................................................................................................................
Polski
..................................................................................................................
Română
..................................................................................................................
한국어
..................................................................................................................
हिन्दी
..................................................................................................................
Français
..................................................................................................................
Türk
..................................................................................................................
Česk
..................................................................................................................
Português
..................................................................................................................
ไทย
..................................................................................................................
中文
..................................................................................................................
Español
..................................................................................................................
Slovenský
..................................................................................................................