So, ich wollte mich gerade vergewiisern, dass die Art wie ich meinen Shader einlese funktioniert. Das tut er natürlich nicht.
Ist ne ganz simple Sache, ich lade zwei Texturen im Programm, übergebe sie dem Shader und speicher sie dort in zwei sampler2d.
Wenn ich die nu an die gl_FragColor gebe, dann zeichnet mir das Programm, egal welche Textur ich nehme immer nur die letzte.
Wieso das so ist versteh ich nicht. Habe gestern abend rund 6 Stunden daran rum getüfftelt und Tut+foren durchwühlt um ne Lösung zu finden...
aber irgendwie kam ich nicht damit klar.
Das ist jetzt alles TForm1.OnCreate; zusammen mit der OGl initialisierung etc., aber das sollte mit dem shader (die init) ja nicht viel zu tun haben, d.h. nur der shader part und die Texturen zuweisung:
Cam.use; ruft ne gl_translatef(); und drei gl_rotatef(); auf, um die Szene auszurichten und Cube.draw; rotiert und transferiert den Würfel und zeichnet ihn anschließend mit Texturkoordinaten. Ich glaube die draw; geb ich auch nochmal mit, falls ich hier noch nen Texturen-fehler gemacht haben sollte:
sowas hat ja garantiert auch schon jeder geschrieben... an dieser stelle mal ein einschub: ist es sinnvoller
push und pop zu verwenden, oder die Szene zurück zu tranformieren?
Als Shader verwende ich wie oben schon ersichtlich stinknormale *.txt files, weils halt simple ist.
Hier mal der Vertex Shader, bei dem ich glaube, dass ich alles richtig gemacht habe (sieht halt so aus wie im tut):
Code:
void main(void)
{
gl_Position = ftransform();
gl_TexCoord[0] = gl_MultiTexCoord0;
gl_TexCoord[1] = gl_MultiTexCoord1;
}
So und dann noch der Fragment Shader, der ja auch sehr üersichtlich klein und einfach ist:
Ich denke, dass dieser Code den meisten sehr bekannt vorkommt, weil das irgendwie die absolute minimum basis an Code ist und außerdem sehr stark auf das Shadertut von Sascha aufbaut.
Also wenn mir jetzt jemand erklären kann, warum immer nur die NormalHeight-textur gezeichnet wird, obwohl ich DiffuseSpecular im Fragment-shader stehen habe(jetzt stehts zwar nicht da, aber wenn ich es austausche, dann ändert das nichts am Ergebnis), wäre das echt klasse... außerdem gibt mir zu denken, dass die Texturen komplett gezeichnet werden, obwohl beide Texturen im alpha ne map gespeichert haben und dieser wert ja laut shader automatisch an die gl_FragColor.a komponente geht.
_________________ ist Ihnen schon mal aufgefallen, dass wenn Sie beim Wort Schlagersängerinnen die ersten 6 Buchstaben streichen, das 'e' durch ein 'f' ersetzen, die nächsten 7 Buchstaben rückwärts lesen und dann ebenfalls elemenieren und zusätzlich die beiden nebeneinanderstehenden n's durch ck ersetzen, das Wort 'ficken' ergibt?
Zum Einlesen der Texturen muss diese gebunden werden, da man sonst keine Daten übergeben kann und in dem Falle überschreibst du dir die bereits gebundene DiffuseSpecular.
Das sollte eher folgendermaßen aussehen. Bzw das Aktivieren später dann beim Zeichnen. Und wenn du sie nicht mehr brauchst musst du auch beide TMUs deaktivieren.
PS: Technisch gesehen würde es auch auch ausreichen die GL_TEXTURE1 vor dem Laden der zweiten Textur zu aktivieren. Aber ich würde die Schritte lieber komplett voneinander trennen.
hi Lossy ex, hab deinen Vorschlag mal ausprobiert, nu zeichnet er nur noch die DiffuseSpecular Textur, aber die NormalHeight nicht mehr...
wenn ich allerdings glActiveTexture unmittelbar vor dem glLoadTexture für die zweite Textur aufrufe, dann zeichnet er nur noch diese.
Ich verstehe das nicht wirklich... Ich bin ja nicht der einzige, der mehrere Txturen für eine 3D anwendung braucht, gibs da nicht jemanden,
der soetwas schon in funktionierend hat?
Im Prinzip müsste es ja egal sein, wann ich glLoadTexture aufrufe, solange ich es vor der Übergabe an den Shader mache, da ich damit ja
bloß die textur an ein GLuint koppel, dass ich später der TMU übergebe. Für mich klingt es logisch, dass ich die Textur lade, dann die
Textureinheit aktiviere und als letztes die Textur an den Shader schicke.
Der unterschied zwischen _ARB und nicht _ARB macht sich bei mir im Moment nicht bemerkbar... leider.
kann es daran liegen, dass ich die Texturen lade, nachdem ich das ProgramObject gelinkt ( glLinkProgramARB(ProgramObject); ) und aktiviert ( glUseProgramObjectARB(ProgramObject); )habe?
_________________ ist Ihnen schon mal aufgefallen, dass wenn Sie beim Wort Schlagersängerinnen die ersten 6 Buchstaben streichen, das 'e' durch ein 'f' ersetzen, die nächsten 7 Buchstaben rückwärts lesen und dann ebenfalls elemenieren und zusätzlich die beiden nebeneinanderstehenden n's durch ck ersetzen, das Wort 'ficken' ergibt?
Registriert: Do Dez 05, 2002 10:35 Beiträge: 4234 Wohnort: Dortmund
@littleDave: Also bei den Konstanten ist es egal, da bekommt der Treiber in beiden Fällen nur $84C0 übergeben. Bei den Methoden ist es etwas anders. Genau genommen muss man dort überprüfen ob man OpenGL in Version 1.3 hat oder die Multitexturing Erweiterung unterstützt wird. Aber eigentlich sollten beide Methode sogar intern auf die gleiche Funktion zeigen. Also die sollten den gleichen Adresspointer haben. Ich habe es aber schon teilweise erlebt, dass die Treiber eine Erweiterung im Kern zur Verfügung stellen aber diese nicht einmal seperat als Erweiterung anbieten. Andersrum natürlich sobald der Kern nicht voll unterstützt wird.
Aber das eindeutigste Zeichen, dass es nicht geht ist eine Zugriffsverletzung an Adresse 0, da die Methode keine Adresse hat (der Treiber sie nicht bietet). Sonst ist es aber eher gleich.
@Der Zerhackte: Du musst auch noch für jede TMU extra die Texturkoordinaten setzen. Also anstelle von glTexCoord musst du dann glMultiTexCoord benutzen. Also für jeden Vertex 2 Mal aufrufen. Oder aber du greifst in deinem Shader nur auf die erste Texturkoordinate zu. Denn dort liest du Koordinaten aus die gar nicht existieren.
Sonst wüsste ich nicht woran es liegen könnte. Denn der Shader wird ja erst dann ausgeführt, wenn du auch tatsächlich etwas renderst. Und, dass er sich die Texturen merkt fänd ich etwas sehr seltsam.
und natürlich die MultiTexCoords für beide Texturen gesetzt. Ob jetzt die Befehlreihenfolge, oder die Coords das Problem
waren weiß ich nicht genau, kann ja auch in Kombination gewesen sein.. aufjedenfall läufts im Moment und damit bin ich zufrieden.
Ich habe allerdings noch einige andere Fragen bezüglich der Vektoren, die man für die verschiedenen Lichtmodelle braucht. Ins besondere
meine ich damit Vektoren wie Blickrichtung,CameraPosition und Lichtposition. Wo bekomme ich die her? Bei dem Licht stellt
sich für mich die Frage, ob ich das openGL Licht verwende, oder einfach ein eigenes schreibe und dann die Werte als uniform
an den Shader schicke. Die eigenen wären praktisch, weil ich sie modifizieren kann wie ich möchte, dafür sind die oGL Lichter bereits bestandteil der GLSL.
Ich hatte mal in openGL ein Goroud-Licht geschrieben, das basierte aber komplett auf eigene Objekte und beleuchtete eine Fläche nur
in abhängigkeit zur Flächennormale, nicht nach den Normalen der vertieces, oder sogar Pixel. Außerdem wurde die Färbung per gl_color3f(); angestellt,
was denke ich ebenfalls eine unglückliche Lösung ist.
Aufjedenfall soll es diesmal ewas schöner werden und habe mir dazu einige Tuts von oZone3d.net angesehen zum thema blinn-phong und
ambient occlusion unter Verwendung von Normalmaps und Bumpmaps. Erst wollte ich ne Radiosity schreiben, aber das ist mir für den Anfang zu heftig...
Also wenn mir jemand für diese 3-4 Vektoren ne Quelle geben kann, dann bin ich auch erstmal leise. ^^"
[EDIT1] => Frage in neues Thema gebunkert
_________________ ist Ihnen schon mal aufgefallen, dass wenn Sie beim Wort Schlagersängerinnen die ersten 6 Buchstaben streichen, das 'e' durch ein 'f' ersetzen, die nächsten 7 Buchstaben rückwärts lesen und dann ebenfalls elemenieren und zusätzlich die beiden nebeneinanderstehenden n's durch ck ersetzen, das Wort 'ficken' ergibt?
Zuletzt geändert von Der Zerhackte am Fr Sep 07, 2007 10:21, insgesamt 1-mal geändert.
Registriert: Do Dez 05, 2002 10:35 Beiträge: 4234 Wohnort: Dortmund
Da das vom Thema her doch ziemlich stark vom Ursprung abweicht würde ich ich dich bitten daraus eine eigene Frage zu machen. Da es sonst nur zu verwirrend ist. Also einfach editieren und in ein neues Thema kopieren.
Registriert: Mo Jan 31, 2005 11:02 Beiträge: 432 Wohnort: Rheinlandpfalz
Also für blinn / phong kann ich dir das GLSlang2 Tutorial von LaBoda empfehlen. Da ist auch ein Link zu Delphi3d, wo auch blinn und phong nochmals sehr genau mit Vektorzeichnungen beschrieben sind.
das ging darum, dass wenn ich in der Zeile, die du geschrieben hast das "NormalHeight" durch die ander Textur ersetzt habe und die Texcoords auch angepasst hatte, dass der shader trotzdem noch die "NormalHeight" verwendet, obwohl sie gar nicht mehr benutzt werden sollte.
Aber jetzt geht es ja zum Glück;
_________________ ist Ihnen schon mal aufgefallen, dass wenn Sie beim Wort Schlagersängerinnen die ersten 6 Buchstaben streichen, das 'e' durch ein 'f' ersetzen, die nächsten 7 Buchstaben rückwärts lesen und dann ebenfalls elemenieren und zusätzlich die beiden nebeneinanderstehenden n's durch ck ersetzen, das Wort 'ficken' ergibt?
Mitglieder in diesem Forum: 0 Mitglieder und 3 Gäste
Du darfst keine neuen Themen in diesem Forum erstellen. Du darfst keine Antworten zu Themen in diesem Forum erstellen. Du darfst deine Beiträge in diesem Forum nicht ändern. Du darfst deine Beiträge in diesem Forum nicht löschen. Du darfst keine Dateianhänge in diesem Forum erstellen.