Hallo,
Ich bin im Gebiet Java Script ganz neu und hab da heut mal was ausprobiert:
HTML
<html>
<head>
<title>Test</title>
<script type="text/javascript">
<!--
function Quadrat() {
var Prozent = document.Formular.Prozent.value * 0.01;
var Ergebnis = document.Formular.Eingabe.value + document.Formular.Prozent.value;
alert(Prozent);
}
//-->
</script>
</head>
<body>
<form name="Formular" action="">
<input value="35" type="text" name="Prozent" size="3">
<input value="" type="text" name="Eingabe" size="3">
<input type="button" value="Quadrat errechnen" onClick="Quadrat()">
</form>
</body>
</html>
Alles anzeigen
Das erste Problem ist, wenn ich die Variable Prozent mal 0.01 nehmen kommt immer das raus:
0.35000000000000003
wiso?
Meine Zweite Frage betrifft die addition:
wenn ich z.b habe:
Dann kommt da 21 raus.
Is ja auch irgendwie logisch, da der computer ja net weis ob die 2 jetzt n string oder was anderes is.
ich habe gelesen, dass man das damit lösen kann:
var Ergebnis *= 2 + 1;
aber des klappt irgendwie net...
weis einer rat?