Diskussion:Texturesynthesis
Die Ergebnisse in deinen Bildern und denen der RWTH (das Rathaus ist wirklich der Hammer. Man sieht zwar störstellen (z.B. am Eingang, weils keine Entsprechung an anderer Stelle gibt) aber man denkt fast, der Brunnen wäre ne Fälschung und nachträglich eingesetzt.) sind richtig klasse. Kannst du eventuell den Grundalgorithmus etwas detailierter erklären. Das mit der RGB Noise Textur und wie diese benutzt wird, um das Ergebnis zu erhalten ist mir noch nicht klar. Wie wird überhaupt die Ähnlichkeit zweier Gebiete bestimmt? Man sieht im Video von der RWTH, dass verschiedene Radien benutzt werden. Das sind doch die Nachbarschaften aus dem Artikel, oder? Wie wird so schnell ein passendes Gegenstück gefunden? Wird das Bild grob gerastert und für jedes Raster ein "Fingerprint" angelegt, der dann bei bedarf genauer untersucht wird, oder wie geht ihr vor?
Die Software ist frei und kann für alle Zwecke benutzt werden? Unterliegen die damit generierten Texturen irgendwelchen Einschränkungen?
Ich sags mal so: Wenn du die beiden Punkte (Algo + Programmlizens) noch etwas ergänzt, dann hast du eine echte Perle geschaffen. Ist es jetzt schon. Ich finde den Artikel und das Thema sehr spannend. --Flash 23:59, 7. Feb. 2009 (UTC)