HOME | DD

#3dart #3dmodel #ciri #cool #cosplay #cyberpunk #daz #daz3d #dazstudio #family #fanart #flare #geralt #iray #protection #render #rendering #sexy #3dartwork #3dcomposing #irayrender #nvidiairay #adopted_child #pskprojekt4d #coolness #sunglasses #witcher #cyberpunkgirl #cdprojektred #geraltofrivia #cyberpunk2077 #cirillafionaelenriannon #cirillaofcintra #cirithewitcher #witcher3wildhunt
Published: 2019-07-07 08:33:36 +0000 UTC; Views: 16558; Favourites: 243; Downloads: 161
Redirect to original
Description
+++ Witcher meets Cyberpunk
All right, the subject is anything but new. Ciri even tells in Witcher 3 how she took refuge from The Wild Hunt in a cyberpunk world for a while. Therefore there are also countless pictures of this kind.
I don't care, I want too! So I recently converted all 4 characters into a cyberpunk version and created some pictures with them.
And somehow I hope that the CD Project Red will allow itself the fun that at least Ciri will really appear as Easter Egg in the game.
+++ Problem / Hint
That I have some problems with rendering about the new 2080ti, I had already mentioned. I noticed that one of my absolute favorite sets "Stonemason's Urban Future 5" is the most affected , no matter what I do there (without everything) after 1-2h it switches to CPU rendering. That means, I might end up with 1000 iterations instead of the desired 5000-8000+. In other words, I have already prepared several motifs and all are noisy. For lack of alternatives I have chased the pictures through a Denoiser and accept the washed-out look.
It's not the memory or the like, I've made more complex scenes in the last weeks, where RAM and VRAM exploded shortly before. When I have time, I try to experiment further, but it is a tedious thing and I have little desire. So far it really seems to refer to only a few sets/settings.
--------------
Models & Assets by Daz3D etc.
Composing, render (Iray) & postwork by me
Tools: Daz3d Studio 4.11 & Photoshop CC
________________________
Instagram | ArtStation | Facebook
Related content
Comments: 64
PSK-Projekt4D In reply to ??? [2019-07-09 10:04:51 +0000 UTC]
Could also make Yenn and Triss fight for Geralt. Threesome pictures can be found in the net already enough "on other pages".
👍: 0 ⏩: 1
pauladaruk In reply to PSK-Projekt4D [2019-07-09 14:17:22 +0000 UTC]
HeHe!
I didn't think of that
👍: 0 ⏩: 0
LmAnt [2019-07-07 09:29:11 +0000 UTC]
Irgendwie würde der Witcher in so einem Cyber-Punk Universum mir noch mehr Lust machen, ihn mal zu spielen!
(das Mittelalter-Scenario durch das er sich sonst so zauber liegt mir nicht so).
Jedenfalls sehn die beiden klasse aus!
Was dein Problem mit dem Stonemason Set betrifft,...
das ist wirklich merkwürdig!
Liegt es vielleicht an der Anzahl der Texturen? Also nicht an der Größe, sondern schlicht an der Anzahl?
Ich weiß gar nicht, wie das bei DS ist, aber bei Carrara war das limitiert (ist aber auch ne total andere Engine).
Jedenfalls muss das ganz schön frustrieren, wenn man mit so einer High-End-Karte nicht rendern kann was man will!
Ich frag mich, ob die sowas nicht testen!
Bei mir ist übrigens eine neue Karte auf dem Weg.
Die alte hat am Freitag endgültig den Geist aufgegeben
👍: 0 ⏩: 1
PSK-Projekt4D In reply to LmAnt [2019-07-07 09:42:26 +0000 UTC]
Mit meiner ganz alten Karte (4.9-4.10), hatte ich ja 2-3 Bilder problemlos mit dem Set rendern können und ich vermute mal, dass ich mal wieder ein Sonderfall bin.
Bin aber schon einmal froh, dass es sich (bisher!) scheinbar auf wenige Sets beschränkt, denn nach dem Einbau hatte ich zufällig halt fast nur mit diesem Set getestet, da ich mit einer anspruchsvollen, dunklen Regenszene in dem Set extra gewartet habe, weil ich dachte, die zu rendern wird mit der neuen Karte "einfacher". Erst später bemerkt, das andere Szenen scheinbar auch mal 6h durchlaufen => weniger Panik!
Dann markiere Dir den 16.04.2020, da kommt Cyberpunk 2077 (vermutlich) raus... das nächste Spiel der Witcher Entwickler und zumindest das von mir (seit Jahren) am meisten erwartete Spiel der nächsten Jahre (Jahrzehnts ?). Aber wird ein Rollenspiel aus der Egoperspektive, was ja nicht so deins ist. www.youtube.com/watch?v=UjxS9c… (gibt aber auch schon ~1h richtiges Gameplay vom letzten Sommer).
Dankeschön! Eigentlich hatte ich ein anderes Bild als erstes posten wollen, aber da stehe ich noch vor der Bearbeitung... die wohl etwas anstrengender wird.
Tut mir leid karte , hatte echt gehofft...dass Du das Problem hast vorerst lösen können. So ein Mist... dann hoffe ich mal, Du hast mit der neuen Karte wenigstens mehr Glück als ich mit den letzten 3 "neuen".
👍: 0 ⏩: 1
LmAnt In reply to PSK-Projekt4D [2019-07-07 09:56:23 +0000 UTC]
Hm...ich geh mal davon aus, dass du weißt, dass DS es nicht immer schafft den VRAM nach einem Render wieder freizugeben?
Wenn du also zwei, drei kurze Tests mit so eine massiven Szene hast laufen lassen und dann, ohne DS und die Szene neuzustarten, auf "Final Render" gehst, dann kann es passieren, dass die Karte nicht richtig verwendet wird.
Das wäre der einzige weitere Grund für dein Problem, das mir spontan einfällt.
Ich kann mir einfach nicht vorstellen, dass es explizit an einer Stonemason Szene liegt.
Ist ja nicht so, als wüsste die Engine was sie da rendert.
Irgendwie hat mich das mit meiner Karte dann gar nicht mehr richtig geschockt.
Hatte genug Zeit mich seelisch und moralisch drauf einzustellen
Immerhin hatte ich sozusagen Glück, weil ich gestern bei eBay eine nagelneue Karte vom Media-Markt schießen konnte.
Jubiläums-Angebot + €50 Gutschein.
Es wird aber auch "nur" eine GigaByte RTX 2080. Aber ich denke mal, für meine Art von Bildern wird die es eine Weile lang tun (GigaByte soll ein bisschen haltbarer sein als andere Designs )
👍: 0 ⏩: 1
PSK-Projekt4D In reply to LmAnt [2019-07-07 17:05:37 +0000 UTC]
Ja, so weit reicht mein DS Wissen mittlerweile.
Ich bin da ja schon nen kleiner Nerd , habe also GPUz inkl. Protokollierung in den ersten Wochen der Tests nachts mitlaufen lassen, um zu sehen, ob zum Zeitpunkt des Wechselns von GPU auf CPU irgendwas komisch aussieht => also GPU Temperatur, VRAM, RAM, CPU-Temperatur, Netzteilauslastung etc. => aber da ist einfach nichts ungewöhnliches... es siehst die ganze Zeit gleich aus.
Das meinte ich, dass ich bei anderen Szenen da schon eher an Grenzen gekommen bin und keine Probleme hatte. Dort lieg es dann z.B. die ganze Nacht mit VRAM und RAM am Anschlag.
Ich nutze bei dem Set auch immer eines der ganzen Renderpresets für die Beleuchtung, ev. ist es auch nur eine Einstellung wie Bloom oder so, dass mit dem Preset kommt. Müsste also das Set mal "clean" ohne irgendwas und ohne seine Presets rendern.
In einem anderen Set, dass ich nur kurz getestet habe, habe ich z.B. ein komischen Darstellungsfehler und am Ende kam raus, man muss die Einstellung für Instanzen von Speed auf Memory (oder andersrum) ändern => der PA war selbst völlig irritiert, weil es in 4.10 noch genau andersherum sein musste.
Technik / Software sind manchmal echt nervig... warum kann nicht einfach immer alles sauber funktionieren... *träum*
------------
Hatte schon fast jede GPU Marke und verreckt ist mir noch nie eine, also wenn, dann hatte ich von Anfang an Probleme oder gar keine (bis auf das eine verstaubte Mal). Aktuell habe ich auch eine Gigabyte, aber von der Untermarke für "Leute mit zu viel Geld" Aorus Xtreme.
Klingt gut angi-christ! Wollte die 11GB VRAM ja nur, weil ich zu faul zum ständigen optimieren bin, nervt mich und so war es ein großes Upgrade von 4GB auf 11GB. Um die Geschwindigkeit selbst ging es mir dabei gar nicht so, meist läuft es ja eh 6-7h über Nacht und fertig. Normalerweise, ohne DS hätte ich mir ja sogar nur die 2070 geholt, die xx70er Reihe war so immer dass was ich bereit war auszugeben.
👍: 0 ⏩: 1
LmAnt In reply to PSK-Projekt4D [2019-07-08 05:44:55 +0000 UTC]
Ja,...warum kann nicht einfach immer alles funktionieren!
Ich bin gespannt, was bei deinen nerdigen Analysen rauskommt!
Da können wir ja alle von lernen
Ich hatte auch mit einer GTX 1080Ti geliebäugelt, wegen der 11GB. Obwohl die nochmal mindestens €250 mehr gekostet hätte.
Aber die ist im Moment einfach nicht zu bekommen. Nicht mal bei nVidia selbst.
Und irgendwie war ich dann auch froh, dass ich das ziemlich günstige Angebot gefunden hab.
Morgen kommt sie...und ich bin gespannt
👍: 0 ⏩: 1
PSK-Projekt4D In reply to LmAnt [2019-07-08 08:48:32 +0000 UTC]
Neue Sachen erstellen macht mehr Spaß als "nerdige Analysen".
Die GTX 1080ti wirst du (außer gebraucht) vermutlich nicht mehr bekommen! Ich hatte ja schon 2 der letzten im Winter in Dänemark gekauft... damals war in Deutschland schon fast alles weg (hatte z.B. 2 Bestellungen die nachträglich vom Händler storniert wurden). nVidea hat soweit ich weiß die komplette Reihe vom Markt genommen, um sich selbst keine Konkurrenz für die viel zu teure 2080ti zu schaffen.
Der Restbestand ging wohl auch gut weg, nachdem die 2080ti keinen vom Hocker gehauen hat, denn das RTX Feature ist einfach "nice to have...aber (fast) kein Spiel unterstützt es...und Rest ist nur minimal schneller...".
Besonders peinlich ist aber, das nVidea auf ihrer eigenen Seite z.B. Treiber Download immer noch fleißig Werbung für die 1080ti macht.
Yeah, dann kannst morgen wieder loslegen! , schön, dann ist die Pause für deine Fans ja gerade noch "verkraftbar".
👍: 0 ⏩: 1
LmAnt In reply to PSK-Projekt4D [2019-07-08 09:09:05 +0000 UTC]
Ich hab mich auch schon gewundert, warum die 1080Ti zwar noch dick und fett auf der nVidia Seite angepriesen wird, aber wenn man dann auf "jetzt kaufen" klickt...kommt alles mögliche, nur keine 1080Ti.
Dafür aber die 2080Ti ganz fett oben im Bild!
Ich hab auch schon gelesen, dass die Gemeinde nicht so glücklich mit der sauteuren Karte war.
Aber ich denke die ganze Gamer-Szene war einfach fertig mit den Nerven wegen der Preisentwicklung durch die Scheiß Bitcoin-Schürferei,...
Wie auch immer...
Ich bin gespannt wie die neue Karte sich macht (ich hoffe mal sehr, DASS sie es macht! )
Heut hab ich - natürlich - noch mal die alte rangenommen,...nur um sicherzugehen, dass sie auch wirklich kaput ist.
Und was passiert?
Sie rendert eine knackige Szene ohne murren! Über eine Stunde lang bei ~ 75% Last.
Sogar als ich das Temperatur-Limit hoch geschraubt hat, hat sie sogar "ruhiger" gearbeitet (also weniger Schwankungen bei der Taktung und im Stromverbrauch) und die Temperatur ging nie über 72°C, obwohl das Limit bei 75 war.
Und ich dacht schon: Scheiße, kaum ist die neue unterwegs heilt die alte sich selbst
Als ich dann aber den Render gespeichert habe (das ging zum Glück), und anschließend die Szene speichern wollte, ist sie wieder gecrashed, inklusive PC Absturz....
Und jetzt hab ich erstmal wieder den "Error 43" (Karte angehalten).
...wie ich das liebe!
👍: 0 ⏩: 1
PSK-Projekt4D In reply to LmAnt [2019-07-09 14:31:21 +0000 UTC]
Ja, daher habe ich ja auch so lange gewartet und mich die ersten 1,5 Jahre DAZ mit den 4GB rumgeschlagen. Erst Bitcoinmist und dann neue Karte die nicht wesentlich besser ist, dann lauter fehlerhaften alte Karten die dann ausverkauft sind. Nervig!
Und die neue Karte schon da? Eingebaut? Spannung pur!
Das mit der alten klingt echt extrem strange, was da wohl defekt ist um solche Effekte auszulösen.
Dann hoffe ich mal, dass ab heute alle Probleme wieder gelöst sind!
👍: 0 ⏩: 1
LmAnt In reply to PSK-Projekt4D [2019-07-09 14:56:08 +0000 UTC]
Sieht so aus, als könnte ich wieder an die Arbeit gehen:
All is well that ends, well :)Okay folks,
this is to those of you who followed the drama between me and my Graphic Processing Unit, GPU in short, or Video-Bitch as I tend to call it now
Today, after many tries to get the old one fixed, many tries that ended up with me accepting that the old Bitch is dead, the new one arrived.
It is a GigaByte RTX 2080 and looks like this:
I have to admit that it looks a bit as if designed by Klingons, and damn was it tight to fit into my computer!
The look doesn't bother me much.
It is also nicely illuminated on its side, with changing colours even. Completely useless inside a computer case, if you ask me
Also great that in its default assembly position the text is turned upside down.
A marketing masterpiece, really
Anyway,...that's superficialities!
But really, what kind of pissed me off was the little care these computer-device-designers take regarding dimensional standa
Ist in English, sorry
Kurz:
Alles, auch Tomb Raider, läuft wieder
Bei der alten Karte war wohl der VRAM hinüber. Die Fehler, die ich hatte würden so jedenfalls Sinn ergeben.
👍: 0 ⏩: 0
<= Prev |