Ich habe die folgende Spalte in einer Datenbank angegeben: Dezimal (5,2)Wie interpretiere ich die Genauigkeit und Skalierung einer Zahl in einer Datenbank?
Wie interpretiert man das?
Nach den Eigenschaften in der Spalte, wie in SQL Server Management Studio angezeigt, kann ich sehen, dass es bedeutet: Dezimal (numerische Genauigkeit, Numerische Skalierung).
Was bedeuten Präzision und Maßstab real?
Es wäre leicht, dies als Dezimalzahl mit 5 Ziffern und zwei Dezimalstellen ... dh 12345,12
P. S. zu interpretieren Ich war in der Lage, die richtige Antwort von einem Kollegen zu bestimmen, hatte aber große Schwierigkeiten, online eine Antwort zu finden. Daher möchte ich die Frage und die Antwort hier auf Stackoverflow für zukünftige Referenz dokumentiert haben.
Vergessen Sie nicht, dass, wenn Sie ein System verwenden, das Sie Genauigkeit und Skalierung eines Eingangs vordefinieren erlaubt Für einen Prozentsatz in etwas wie Microsoft Access müssen Sie den Prozentsatz als Ganzzahlform betrachten. In diesem Fall würde 25,5% erfordert Präzision 4 und das Ausmaß von 3 (nicht ein), da wir es als 0,255 berücksichtigen müssen. Ich kam früh über dieses Problem und wurde für eine Weile ratlos fragen, warum Maßstab 1 nicht funktioniert. –
@mezoid Was bedeutet ein negativer Skalenwert? – Geek
@Geek Nach http://technet.microsoft.com/en-us/library/ms187746.aspx Die Skala kann nicht kleiner als Null sein. 0 <= Skalierung <= Genauigkeit. Im Wesentlichen wäre ein negativer Skalenwert bedeutungslos. – mezoid