GirishVMagnitudenMagnitudenEnergieflussSternenfarben und TemperaturenVor 2500 Jahre ordnete der antike griechische Astronom Hipparchus die Helligkeit der sichtbaren Sterne im Himmel auf einer Skala von 1 bis 6. Er nannte die hellsten Sterne im Himmel "erste Magnitude" und die blassesten Sterne, die er sehen konnte "sechste Magnitude". Erstaunlicherweise wird Hipparchus' Einteilung immer noch von Astronomen zweieinhalbtausend Jahre später benutzt, obwohl sie modernisiert und erweitert wurde.Beachten Sie, dass die Größenskala rückwärts läuft: Hellere Sterne haben kleinere Magnituden (Größenwerte) als mattere Sterne. Die moderne Magnitudenskala ist eine mengenmäßige Messung des Energieflusses von Licht aus einem Stern mit einer logarithmischen Skala: m = m_0 - 2.5 log (F / F_0) Wenn Sie diese Mathematik nicht verstehen, das bedeutet einfach, dass die Magnitude eines gegeben Sterns (m) verschieden von einem Standardstern (m_0) das 2,5-fache des Logarithmus ihres Energieflusses ist. Der Faktor 2,5*log bedeutet, dass bei einem Verhältnis des Energieflusses von 100 der Unterschied in den Magnituden 5 mag beträgt. Also ist ein Stern 6. Magnitude 100 mal blasser als ein Stern der 1. Magnitude. Der Grund, weshalb Hipparchus' einfache Einteilung zu einer relativ komplexen Funktion führt, liegt darin, dass unser Auge auf das Licht logarithmisch reagiert. Es werden mehrere verschiedene Magnitudenskalen benutzt, jede für einen anderen Zweck. Die am häufigsten benutzte ist die scheinbare Magnitudenskala, die einfach misst, wie hell Sterne (und andere Objekte) dem menschlichen Auge erscheinen. Die scheinbare Magnitudenskala definiert den Stern Vega mit der Magnitude 0,0 und weist allen anderen Objekten mit der obigen Gleichung einen Wert zu und misst die Energieflussmenge relativ zu Vega. Es ist schwer die Sterne nur mit ihrer scheinbaren Magnitude zu verstehen. Stellen Sie sich zwei Sterne im Himmel mit der gleichen scheinbaren Magnitude vor, die also scheinbar gleich hell sind. Sie können vom Hinschauen nicht wissen, ob sie beide dieselben wirkliche Helligkeit haben; Es ist möglich, dass der eine Stern in Wirklichkeit heller ist, aber weiter entfernt. Wenn wir die Entfernung zu den Sternen wüssten (schauen Sie in den Artikel über Parallaxe), könnten wir ihre Entfernung einbeziehen und ihnen absolute Magnituden zuweisen, die ihre wirklichen Helligkeiten darstellt. Die absolute Magnitude ist definiert als die scheinbare Magnitude, die ein Stern haben würde, wenn er aus einer Entfernung von 10 Parsecs (1 Parsec beträgt 3,26 Lichtjahre oder 3,1 * 10^18 cm) betrachtet würde. Die absolute Magnitude (M) kann aus der scheinbaren Magnitude (m) und der Distanz in Parsecs (d) mit dieser Formel berechnet werden: M = m + 5 - 5 * log(d) (Beachten Sie, dass für d=10 M=m ist). Die moderne Magnitudenskala basiert nicht länger auf dem menschlichen Auge, sie basiert auf photographischen Platten und photoelektrischen Photometern. Mit Teleskopen können wir viel blassere Objekte sehen als Hipparchus mit dem bloßen Auge, also wurde die Magnitudenskala über die 6. Magnitude hinaus erweitert. Tatsächlich kann das Hubble Space Telescope Fotos von Sternen machen, die sich in der 30. Magnitude befinden, was ungefähr eine Billion Mal blasser ist als die Vega! Ein letzter Zusatz: Die Magnitude wird normalerweise durch einen irgendwie gearteten Farbfilter gemessen und diese Werte werden von einem Index begleitet, der angibt, durch welchen Filter gemessen wurde (z.B. m_V ist die Magnitude durch einen Visual-Filter (sichtbar), der grünlich ist, m_B ist die Magnitude durch einen Blaufilter, m_pg ist die photographische Plattenmagnitude &etc;)