Questa è una domanda niubba, ma sono curioso di sapere il motivo dietro a questo: -Se il debug di codice C++ seguente:
void floatreturn(float i){
//nothing
}
int main(){
float a = 23.976;
floatreturn(a);
return 0;
}
Monitoraggio il valore passato di un, sembra essere 23.9759998 quando si entra in floatreturn. Come risultato, ogni trasformazione del valore in funzione richiederebbe di modificare manualmente la precisione. C'è una ragione per questo, e qualche modo per evitarlo?