Hallo,
ich bin durch den User CRI 93+ / Ra 93+ darauf gekommen, wie man die Chiptemperatur einer Led direkt messen kann.
Das beruht darauf, dass der Spannungsabfall in der Led mit steigender Temperatur sinkt, da Halbleiter bei höheren Temperaturen besser leiten. So hat die Luxeon K2 einen deltaU/deltaTJ Koeffizient von -2mV/K und die XP-G -2,1mV/K.
Die Meßdurchführung sieht jetzt so aus, dass man die Kühlkörper Temperatur am Anfang im ausgeschaltetem Zustand misst, das ist dann auch die Initial-Chiptemperatur. Dann schaltet man die Led ein und misst möglichst sofort die Flussspannung, das wäre dann die Initial-Flussspannung bei der obigen Chiptemperatur. Was so simpel klingt, ist meßtechnisch im Hobbybereich alles andere als trivial. Entweder gibt man ordentlich Leistung, sodass man ordentlich Temperaturdifferenz hat, was nötig ist, um eine messbare Spannungsdifferenz beim Aufheizen zu erzeugen, und kann so die Initial-Spannung nicht sicher bestimmen, weil diese durch die sehr geringe thermische Trägheit des Chips, beim Einschalten sich sehr schnell ändert. Oder man gibt wenig Leistung, so 100mW (20-30mA Strom), wodurch der Chip sich langsamer aufheizt. Die resultierende Spannungsdifferenz ist dann aber im Hobbybereich nicht mehr sicher zu messen.
Mein Extech EX510 Multimeter hat eine Grundgenauigkeit von +-0,09% + 2 Digits bei einer Auflösung von 1mV im Meßbereich 6V.
Das macht als eine Gesamtgenauigkeit von +-29mV bei 3V Ledspannung und dabei ist dieses Multimeter schon ziemlich genau. Ein Fluke 131 Multimter hat zum Beispiel schon ganze +-2% Grundgenauigkeit + 3 Digits, macht also ganze +-63mV. Das heisst, bei 20mA Strom ist die Temperaturdifferenz etwa um den Faktor 20 zu klein, als das man sie mit einem relativ teuren Multimeter überhaupt messen kann.
Man braucht da also schon eine ordentliche Temperaturdifferenz, oder ein extrem genaues Meßgerät, was in die Tausende und Zigtausende gehen würde. Die zweite, in dem Fall systematische Fehlerquelle ist die Bestimmung der Initialspannung beim Einschalten. Da der Chip nur 1mm² Gross und nur etwa 0,1m dick ist, verhält sich dieser thermisch extrem flinkt. Mit den Augen ist eine sichere Erfassung der Initialspannung kaum möglich. Ich habe bei meinem Extech eine "MAX" Funktion, die den höchsten Wert aufzeichnet, leider weiß ich nicht genau, wie schnell das geht. Ein elektronischer Datenschreiber wäre hier absolut angebracht. Mal sehen, vieleicht kann ich im kommenden Semester bei uns in der Uni im Messtechniklabor einige Leds vermessen.
Jetzt zu meinem Test:
Ich habe eine K2 rot und eine XP-G R4 vermessen. Der Messaufbau war so, dass ich die 2 Leds auf einen passiv Kühler mit Arctic Silver auf den Kupferkern geklebt habe, und etwa 1cm entfernt den Temperatursensor. Ebenfalls auf den Kuperkern, um eine möglicht genaue Temperaturüberwachung zu haben.
Ich habe jeweils 1h gewartet, damit sich eine konstante Temperatur einpendelt. Praktisch ist das aber nicht nötig, man erwärmt besser den Kühler am Anfang auf die geschätze Endtemperatur mit einem Feuerzeug etc., und wartet dann etwas, bis sich ein konstanter Wert eignependelt hat. So umgeht man die langsame Aufheizphase, die mit der Zeit immer langsamer verläuft.
Ergebnisse
Die gelb markierten Werte sind die Initialwerte. Bei der Xp-G kommt der Wert ziemlich gut hin. Ich weiß zwar nicht den Wärmewiderstand der XP-G mit Starplatine, aber selbst wenn dieser 10K/W (6K/W für die XP-G +4K/W für die Platine) beträgt, liegt man abzüglich der Lichtleistung ziemlich gut in dem Bereich.
Bei der K2 rot konnte ich jedoch keinen sinnvollen Wert rausbekommen. Ich habe die Chiptemperatur 4 mal versucht zu messen, 1 mal bei 700mA, 3 mal bei 350mA. Jedesmal kamm eine absolut unrealistische Chiptemperatur raus. So wie ich das sehe, ist der rote K2 Chip thermisch noch viel flinker als der der XP-G, sodass ich keine zuverlässige Initialspannung messen kann. Das liegt wohl nicht zuletzt am doppelt so schlechtem Wärmewiderstand der K2.
Falls jemand Fehler findet, bitte hinschreiben.
Beste Grüße,
Eugene S.