Direkte Messung der Chip-Temperatur

  • Hallo,



    ich bin durch den User CRI 93+ / Ra 93+ darauf gekommen, wie man die Chiptemperatur einer Led direkt messen kann.
    Das beruht darauf, dass der Spannungsabfall in der Led mit steigender Temperatur sinkt, da Halbleiter bei höheren Temperaturen besser leiten. So hat die Luxeon K2 einen deltaU/deltaTJ Koeffizient von -2mV/K und die XP-G -2,1mV/K.
    Die Meßdurchführung sieht jetzt so aus, dass man die Kühlkörper Temperatur am Anfang im ausgeschaltetem Zustand misst, das ist dann auch die Initial-Chiptemperatur. Dann schaltet man die Led ein und misst möglichst sofort die Flussspannung, das wäre dann die Initial-Flussspannung bei der obigen Chiptemperatur. Was so simpel klingt, ist meßtechnisch im Hobbybereich alles andere als trivial. Entweder gibt man ordentlich Leistung, sodass man ordentlich Temperaturdifferenz hat, was nötig ist, um eine messbare Spannungsdifferenz beim Aufheizen zu erzeugen, und kann so die Initial-Spannung nicht sicher bestimmen, weil diese durch die sehr geringe thermische Trägheit des Chips, beim Einschalten sich sehr schnell ändert. Oder man gibt wenig Leistung, so 100mW (20-30mA Strom), wodurch der Chip sich langsamer aufheizt. Die resultierende Spannungsdifferenz ist dann aber im Hobbybereich nicht mehr sicher zu messen.


    Mein Extech EX510 Multimeter hat eine Grundgenauigkeit von +-0,09% + 2 Digits bei einer Auflösung von 1mV im Meßbereich 6V.
    Das macht als eine Gesamtgenauigkeit von +-29mV bei 3V Ledspannung und dabei ist dieses Multimeter schon ziemlich genau. Ein Fluke 131 Multimter hat zum Beispiel schon ganze +-2% Grundgenauigkeit + 3 Digits, macht also ganze +-63mV. Das heisst, bei 20mA Strom ist die Temperaturdifferenz etwa um den Faktor 20 zu klein, als das man sie mit einem relativ teuren Multimeter überhaupt messen kann.


    Man braucht da also schon eine ordentliche Temperaturdifferenz, oder ein extrem genaues Meßgerät, was in die Tausende und Zigtausende gehen würde. Die zweite, in dem Fall systematische Fehlerquelle ist die Bestimmung der Initialspannung beim Einschalten. Da der Chip nur 1mm² Gross und nur etwa 0,1m dick ist, verhält sich dieser thermisch extrem flinkt. Mit den Augen ist eine sichere Erfassung der Initialspannung kaum möglich. Ich habe bei meinem Extech eine "MAX" Funktion, die den höchsten Wert aufzeichnet, leider weiß ich nicht genau, wie schnell das geht. Ein elektronischer Datenschreiber wäre hier absolut angebracht. Mal sehen, vieleicht kann ich im kommenden Semester bei uns in der Uni im Messtechniklabor einige Leds vermessen.

    Jetzt zu meinem Test:

    Ich habe eine K2 rot und eine XP-G R4 vermessen. Der Messaufbau war so, dass ich die 2 Leds auf einen passiv Kühler mit Arctic Silver auf den Kupferkern geklebt habe, und etwa 1cm entfernt den Temperatursensor. Ebenfalls auf den Kuperkern, um eine möglicht genaue Temperaturüberwachung zu haben.
    Ich habe jeweils 1h gewartet, damit sich eine konstante Temperatur einpendelt. Praktisch ist das aber nicht nötig, man erwärmt besser den Kühler am Anfang auf die geschätze Endtemperatur mit einem Feuerzeug etc., und wartet dann etwas, bis sich ein konstanter Wert eignependelt hat. So umgeht man die langsame Aufheizphase, die mit der Zeit immer langsamer verläuft.


    Ergebnisse
    Die gelb markierten Werte sind die Initialwerte. Bei der Xp-G kommt der Wert ziemlich gut hin. Ich weiß zwar nicht den Wärmewiderstand der XP-G mit Starplatine, aber selbst wenn dieser 10K/W (6K/W für die XP-G +4K/W für die Platine) beträgt, liegt man abzüglich der Lichtleistung ziemlich gut in dem Bereich.
    Bei der K2 rot konnte ich jedoch keinen sinnvollen Wert rausbekommen. Ich habe die Chiptemperatur 4 mal versucht zu messen, 1 mal bei 700mA, 3 mal bei 350mA. Jedesmal kamm eine absolut unrealistische Chiptemperatur raus. So wie ich das sehe, ist der rote K2 Chip thermisch noch viel flinker als der der XP-G, sodass ich keine zuverlässige Initialspannung messen kann. Das liegt wohl nicht zuletzt am doppelt so schlechtem Wärmewiderstand der K2.


    Falls jemand Fehler findet, bitte hinschreiben. ;)



    Beste Grüße,


    Eugene S.

  • Hallo,


    wenn Du eine Genauigkeit von +-29mV hast und ein DeltaU von 18mV misst, ist es nicht dann recht erstaunlich, dass überhaupt ein sinnvoller Wert dabei rauskam? Oder hab ich was falsch verstanden?

  • Hallo,


    Genauigkeit und Auflösung sind zwei paar Stiefel. Da es hier um die Differenz zweier Spannungen geht, eliminiert sich ein systematischer Fehler von selbst. Anders ausgedrückt, es ist egal, ob das Voltmeter 5, 10 oder 100 Millivolt falsch geht, Hauptsache, es geht immer um diesen Wert falsch.


    Viele Grüße
    Robert

  • Cossart


    Genau so habe ich auch gedacht, dass es ein systematischer Fehler ist. Aber ob das auch wirklich einer ist? Ich lasse mich gerne eines Besseren belehren, falls jemand anderer Meinung ist und das begründen kann. Mein Messtechnik Praktikum mache ich auch erst im kommenden Semester. ;(

  • gut.. ok, das habe ich anfangs gar nicht bedacht. Da ja wahrscheinlich die Bedingungen stets die gleichen sein sollten, wird der Fehler kleiner. Entschuldigung.
    Aber ich verstehe noch nicht so ganz, was genau jetzt das Problem ist. Vielleicht kann mir da jemand weiterhelfen, sorry.

  • Hallo John,


    kann es sein, dass sich in deine Tabelle ein Fehler eingeschlichen hat? Laut meinen Berechnungen sollte die Chiptemperatur bei der R4 31,95°C und nicht 32,25°C sein.
    Ich schreibe das nicht um kleinlich zu sein, sondern um zu sehen, ob ich deine Rechenvorgänge richtig nachvollzogen habe. Was ich nämlich nicht durchschaut habe ist, wie du auf die K/W Werte gekommen bist!?


    LG
    Simon

  • Stimmt, wenn der Fehler bei beiden Messungen genau gleich ist, heben sich die Fehler in einer Differenzmessung auf, aber wer garantiert dir das hier?


    So wie ich das sehe, macht das Multimeter einen Fehler um den eigentlichen Messwert von bis zu 29mV. Wenn du bei der einen Messung mit -29mV daneben liegst und bei der zweiten mit +29mV drüber hast du am Ende einen Fehler von fast 60mV gemacht. Die Idee ansich ist gut, nur sehe ich keine Garantie in den Messwerten auf die Fehlergenauigkeit.

  • Stimmt, du hast natürlich recht, da war in der Formel noch ein falscher Wert von letzten Messung über.^^


    Die K/W Werte sind aus den Datenblättern der Leds entnommen.


    Guter Einwand! Der Gedanke ist mir gerade auch schon gekommen, dass man nicht genau weiß, wie der Fehler im Multimeter zustande kommt und das so eine Aussage dann doch nicht so sicher wäre. Messtechnik ist echt eine komplizierte Angelegenheit.



    Gruß


    Eugene

  • In einem anderen Forum hat der User Borax folgenden Vorschlag gemacht:


  • So wie ich das sehe, macht das Multimeter einen Fehler um den eigentlichen Messwert von bis zu 29mV.

    Solange der Meßbereich nicht verändert wird, ändert sich auch der systematische Fehler nicht. Das ist das Schöne an Digitalmultimetern: Sie kennen kein "vielleicht", sondern nur "ja" oder "nein". Aus welchem Grunde sollte morgen "nein" sein, was heute noch "ja" ist? Probier's selber aus: Nimm irgend ein Billig-Teil aus der Kruschtelkiste für 5 Euro. Damit mißt die Spannung einer Lithiumbatterie. Morgen wiederholst Du die Messung, ohne den Meßbereich zu ändern. Was kommt dabei raus? John.S Messung ist richtig. Sie funktioniert mit jedem Meßgerät, dessen Auflösung hoch genug ist, die Spannungsdifferenz zu registrieren. Die absolute Genauigkeit spielt dabei keine Rolle, weil sich der systematische Fehler bei der Messung von Spannungsdifferenzen von selbst aufhebt.


    Viele Grüße
    Robert

  • Solange der Meßbereich nicht verändert wird, ändert sich auch der systematische Fehler nicht. Das ist das Schöne an Digitalmultimetern: Sie kennen kein "vielleicht", sondern nur "ja" oder "nein". Aus welchem Grunde sollte morgen "nein" sein, was heute noch "ja" ist? Probier's selber aus: Nimm irgend ein Billig-Teil aus der Kruschtelkiste für 5 Euro. Damit mißt die Spannung einer Lithiumbatterie. Morgen wiederholst Du die Messung, ohne den Meßbereich zu ändern. Was kommt dabei raus? John.S Messung ist richtig. Sie funktioniert mit jedem Meßgerät, dessen Auflösung hoch genug ist, die Spannungsdifferenz zu registrieren. Die absolute Genauigkeit spielt dabei keine Rolle, weil sich der systematische Fehler bei der Messung von Spannungsdifferenzen von selbst aufhebt.


    Viele Grüße
    Robert

    Also mein Physikpraktikum liegt schon bischen her und das Messtechnikpraktikum steht wie gesagt bei mir erst im kommenden Semester an. Deswegen bin ich mir da nicht so sicher. Aber ist das wirklich ein systematischer Fehler im Messgerät? Ein Systematischer Fehler "läuft" doch immer nur in eine Richtung, aber das Messgerät kann sowohl nach oben und nach unten abweichen.

  • Wenn es ein zufälliger Fehler wäre, müsste der Meßwert von Messung zu Messung um biszu ± 29 mV springen. Da er das aber nicht tut, ist es ein systematischer Fehler (Unzulänglichkeiten des AD-Wandlers, Edit: Typo).


    Viele Grüße
    Robert

  • Wenn es ein zufälliger Fehler wäre, müsste der Meßwert von Messung zu Messung um biszu ± 29 mV springen. Da er das aber nicht tut, ist es ein systematischer Fehler (Unzulänglichkeiten des DA-Wandlers).


    Viele Grüße
    Robert

    Macht Sinn. Simple Logik, ist, wie so oft die beste Logik. :P Die Erklärung hast du ja schon indirekt beim Beispiel mit der Batterie gegeben. :huh:



    Gruß
    Eugene