Daten in Oracle-Datenbanken gespeichert sind, können ziemlich gleich aussehen , aber ganz unähnlich , auf der Grundlage des Typs des Objekts. Eine Art ist jeder Konstante, Variable und Parameter in der Datenbank zugeordnet ist. Eine Reihe kann als eine Vielzahl von Skalar -Typen je nach Ausführung und Einsatzzweck der Datenbank gespeichert werden. Anzahl Subtypen
SQL , eine Zahl ein Datentyp, der Daten zugewiesen werden kann , und wird entweder als eine genaue oder ungefähre Wert definiert. Verschiedene Subtypen Anzahl Daten sind miteinander vergleichbar . Die Anzahl Daten Subtyp zugeordnet bestimmt die Genauigkeit der Daten .
NUMERIC vs DECIMAL Format
Gemäß der SQL-92- Standard müssen DECIMAL genau so präzise wie erklärt , während NUMERIC muss mindestens so präzise wie erklärt. In der Praxis , keine inhaltliche Differenz in der Regel besteht zwischen den NUMERIC und DECIMAL Subtypen . Alle wichtigen kommerziellen Datenbank- Pakete - darunter MySQL, Transact- SQL und Oracle - behandeln NUMERIC und DECIMAL als Synonyme
Maßstäblichkeit und Präzision
Beides. NUMERIC und DECIMAL Subtypen werden durch die Variablen Genauigkeit und Skalierung gesteuert. Das richtige Format für entweder Datentyp NUMERIC ( Präzision, Skala) oder DECIMAL ( Präzision, Skala) . Precision bezieht sich auf die zulässige Anzahl der signifikanten Ziffern in den Daten und kann maximal 38 Stellen zu erreichen. Dies ist der Standardwert, wenn Genauigkeit nicht angegeben ist. Maßstab bestimmt die Rundung Punkt . Scale kann von -84 bis 127 reichen. Positive Zahlen beeinflussen Rundung rechts vom Komma , während negative Zahlen beeinflussen Rundung nach links vom Komma . Zum Beispiel würde eine Skala von 3 zur Tausendstel ( 9,8765 wird 9.877 ) um . Zero- Runden auf die nächste ganze Zahl , und ist der Standard, wenn Maßstab nicht angegeben wird.
Andere Anzahl Subtypen
Die Zahl Subtypen DOUBLE PRECISION und FLOAT verwendet werden kann, werden erklären Fließkomma- Zahlen mit einer maximalen Genauigkeit von 38 Dezimalstellen. Der Subtyp REAL kann verwendet werden, um Floating-Point- Zahlen mit einer maximalen Genauigkeit von 18 Dezimalstellen zu erklären . Der Subtyp INTEGER kann verwendet werden, um Zahlen mit einer maximalen Genauigkeit von 38 Dezimalstellen zu erklären .