Ich schreibe eine Routine, die Daten vor dem Einfügen in eine Datenbank validiert, und einer der Schritte ist zu sehen, wenn numerische Werte die Präzision und Skala eines Numeric(x,y) SQL-Server-Typs passen.
Ich habe die Präzision und Skala von SQL-Server bereits, aber was ist der effizienteste Weg in C#, um die Präzision und Skala eines CLR-Wertes zu erhalten, oder zumindest zu testen, ob es eine bestimmte Einschränkung passt?
Im Moment konvertiere ich den CLR-Wert in eine Zeichenkette und suche dann mit .IndexOf() nach der Position des Dezimalpunkts. Gibt es einen schnelleren Weg?