Archive for the ‘NVIDIA’ Category

Tak jsem se po dlouhé době rozhodl začít zase psát na můj blog. Uvidíme, jak mi to vydrží. Ono je to těžké skloubit s mým zaměstnáním, o kterém si hromada z vás myslí, že jen hraju a nic jiného nedělám (teda aspoň někteří fanoušci na NV FB stránce) 🙂 Bohužel realita mé práce je naprosto odlišná a už jsem skoro rozhodnutý napsat blog o mém životě v NV. Je to celkem hutný materiál na nějaký další příspěvek. Nicméně pojďme k věci.

K napsání tohoto příspěvku mě donutil jeden email zoufalého člověka, který odkazoval na článek na jednom „amatérském nezávislém blogu“ a prosil, jestli se k tomu nemůžu vyjádřit. Krátce jsem ho proběhl a nevybočoval ze svého standardu z dob, kdy jsem byl ještě zodpovědný za region ČR. Asi nemá smyls se zabývat těmi bláboly, kterým stejně bude málokdo věřit, ale spíše mě zaujala možnost shrnout jak to vlastně s naším TWIMTBP programem bylo v letošním roce. Moje současná pozice v NV je sice zaměřená trochu jiným směrem, ale pořád se to snažím částečně sledovat.

Tak jak to tedy tento rok vlastně bylo? TWIMTBP program prochází od dob svého vzniku přes různá období a momentálně se nacházíme asi v největším rozmachu. Počet titulů, kterých jsme partnery a na kterých se pracuje, je opravdu hodně. Může za to hlavně Tegra, přestože TWIMTBP logo na mobilní platformě přímo nepoužíváme a hry spadají jednoduše pod Tegra zone. Každopádně většina lidí z developer relations teamu má na starosti i mobilní hry a těch není zrovna málo, byť doba jejich vývoje je výrazně kratší. Za tento rok by se mělo objevit něco přes 40 her na Tegra zone, což není vůbec málo. Za všechny bych asi jmenoval Shadowgun a Sprinkle, které jsou momentálně mé dvě nejoblíbenější hry na Android. Ale nechme být Tegra zone a mobilní hry a pojďme se podívat na situaci na PC.

Když řeknu, že PC platforma byla tento rok pro nás asi nejúspěšnější za poslední roky tak nebudu daleko od pravdy. V každém případě bude asi nejlepší, když se podíváme na to, co vlastně TWIMTBP program je. K mému překvapení se v poslední době děje, že hráči začínají konečně chápat, co celý program znamená a to je dobře. Ve zkratce nejde o nějaké šustění dolarových bankovek vývojářům, ale o podporu nejnovějších technologií a jejich zakomponování do her, stejně tak jako bezproblémové fungování daného titulu při uvedení na NV hardware. Pokud mluvím o podpoře nejnovějších technologiích tak mám samozřejmě na mysli PhysX, 3D Vision, SLI nebo DX11. Jde hlavně o to, aby PC verze dostala nějakou diferenciaci oproti verzím pro konzole, nebo vůbec na PC vyšla. Samozřejmě PhysX, 3D Vision a SLI jsou pouze přístupné NV grafikám, ale jak už bylo několikrát řečeno, tohle žádný vývojář neřeší, spíše je to přínosem, že můžeme nabídnout něco, co na konzolích není a pomoci se samotnou implementací. Každopádně se pojďme podívat, jak to tento rok s tituly pro TWIMTBP vypadalo.

Pro seznam těch nejvýznamnějších je asi nejlepší, se podívat na GeForce.com, kde je pěkný souhrn všech titulů. Napočítal jsem za tento rok 27 her, ale je pravděpodobné, že jich bude trochu více. U každého titulu máte vždycky technologii, na které se pracovalo, ale není to úplně přesné, protože u některých občas něco chybí . Pokud si dobře pamatuji tak za minulé roky jsme se na tohle číslo nikdy nedostali. Tolik asi k domnělému úpadku TWIMTBP.

Začátkem března jsme pak na GDC s EPICEM ukázali jejich nový Unreal 3 Engine a naprosto dech beroucí Samaritan. Určitě doporučuji se na něj podívat aspoň na YouTube. Nad výčtem featurek tohoto dema a budoucího Unreal Engine můžeme všichni opravdu jen slintat. Pojďme si je všechny vyjmenovat: DX11 teselace (dynamická teselace, displacement high-res mapy), SSAA, deffered rendering + MSAA, subsurface scattering  a screen space subsurface scattering, bokeh filtery, APEX atd. Zdrcující výčet, nemyslíte? Jinak pokud se k tomu dostanu tak bych chtěl v budoucnu napsat menší článeček o subsurface scatteringu, který bude podle mě hrát v budoucnu velkou roli v nových hrách a enginech. Celá demostrace byla renderována v reálném čase na třech GTX580 a nejednou jsme museli demo zastavit, abychom přesvědčili všechny účastníky, že je to opravdu v reálném čase.

Na závěr jedna aktuální informace. Dneska má v Evropě vyjít nový Batman Arkham City a určitě se vám doneslo, že hra má problémy s DX11. Ano je to tak. Do finálního kódu se dostal jeden bug a způsobuje propady výkonu na veškerém hardware bez příslušenství k výrobci. WB se k tomu vyjádřil na tomto blogu a pracuje se na nápravě, která by měla být dostupná v řádu několika dnů.

Tak co? Připadá vám, že na PC platformu kašleme nebo je to přesně naopak? Dejte mi vědět v diskuzi pod článkem nebo na naší FB stránce.

Optimus trochu jinak

Posted: Únor 9, 2010 in NVIDIA, Optimus

Dnešní den mám speciální důvod k oslavě, protože po měsících příprav jsme konečně uvedli naši technologii NVIDIA Optimus. Posledních čtrnáct dní jsem procestoval celou Evropu od Moskvy až po Londýn a upřímně se těšil na dnešní den. PR na mobilní platformu včetně IONu je moje hlavní práce v rámci NVIDIE a jak asi sami tušíte, tak v případě notebooků se zase tak často zajímavé věci neuvádějí.  Přiznám se, že po dlouhé době jsem si to opravdu užil. Po rozhovorech s desítkami novinářů jsem poprvé neslyšel jedinou negativní odezvu, ale to už možná trochu předbíhám.  Pojďme se v krátkosti podívat, co vlastně Optimus přináší.

Stejně tak jako u většiny předchozích článků se nechci moc zabývat detaily, které si můžete přečíst třeba na PC TuninguExtrahardware nebo CDR, ale věnoval bych se pár věcem, které vysvětlují podstatu celé technologie.

Když NV uvedla v roce 2007 možnost přepínat grafiku v notebooku, tak to byla malá revoluce.  Moc dobře si pamatuji, když mi Tomáš Jirásko ukazoval v IDG první sample SONY Vaio SZ s možností přepínat mezi integrovanou a diskrétní grafikou. Pokud si vzpomínám, tak to byl první notebook, který takovou možnost podporoval a v té době to byl opravdu těžký high-tech. Všechno fungovalo bez problémů až s jednou maličkostí. Pro přepnutí grafiky z integrované  na diskrétní bylo nutno restartovat, což spousta uživatelů odmítala. Zhruba po roce přišla druhá generace přepínatelné grafiky, u které nebylo nutno restartovat, pouze manuálně všechno přepnout v rámci operačního systému. Tohle už vypadalo mnohem dokonaleji, bohužel problém uzavření všech aplikací a vůbec nutnost vědět, že je třeba něco přepnout, opět limitovala použití.  Teď je mi jasné, že většina zkušených uživatelů si ťuká na čelo a diví se co píšu, protože v tom není žádný problém. Bohužel, opak je pravdou. Následující případ se údajně opravdu stal a dal tak trochu základ ke vzniku Optimusu. Snad vám to pomůže pochopit celou naší filozofii.

Zákaznická podpora jedné nejmenované velké firmy prodávající notebooky:

Zaměstnanec podpory: “Dobrý den, zákaznická podpora firmy XXX, jak vám mohu pomoci.“

Zákazník: “Dobrý den, koupil jsem si notebook s NVIDIA grafickou kartou a všechno mi funguje strašně pomalu, nemůžu vůbec nic pořádně hrát, nevíte čím to může být ? Mám notebook XXX.“

Zaměstnanec podpory: “To bude asi tím, že váš notebook má dvě grafické karty a NVIDIA grafika je momentálně vypnutá. Musíte ji zapnout.“

Zákaznik:“Aha a jak se to dělá?“

Zaměstnanec podpory: “No musíte přepnout do high-performance módu a pak by vám to měla všechno fungovat.”

Zákazník: “Hmm, no a kde to najdu.” ?

Zaměstnanec podpory: “Klikněte na napájení a tam zvolte místo balanced high-performace mód.”

Zákazník: ”Hmm, tak jsem to udělal, moment vyzkouším hru znovu (chvilka čekání), je to pořád stejně pomalé.”

Zaměstnanec podpory: “To je divné, ukončil jste všechny aplikace?”

Zákazník: “Aha, mám puštěný Solitaire. To jsem nevěděl, že je třeba všechno ukončit. Moment, vyzkouším to znovu (opět chvilka čekání). Tak pořád nic a už mě to opravdu s**e (v angličtině byl použit výraz WTF).

Zaměstnanec podpory: “Musíte znovu kliknout na balance mode a pak zpět na high-performance.“

Zákazník: “Uff, to je opravdu složité, moment vyzkouším to. Aha, nějak mi bliká display a na chvilku úplně zmizel obraz. Je všechno ok?”

Zaměstnanec podpory: “To je v pořádku při přepínání grafiky.”

Zákazník: “Tak už to všechno jede rychle, ale už jsem úplně zapomněl ten postup.”

Zaměstnanec podpory: “Ok, probereme to znova!”

I když to vypadá, že nakonec všechno dobře dopadlo, má náš kratičký příklad ještě malé pokračování. Zhruba po týdnu se ozval zákazník znova.

Zaměstnanec podpory: “Dobrý den, zákaznická podpora firmy XXX, jak vám mohu pomoci“

Zákazník: “Dobrý den, volal jsem před týdnem a měl jsem problém s výkonem grafiky. Poradili jste mi, jak mám přepnout grafiku, ale od té doby mi notebook vydrží strašně málo na baterky“

Zaměstnanec podpory: “Přepnul jste nazpátek na integrovanou grafiku do balance módu?”

Zákazník: “Aha, to jsem neudělal. To mi minulý týden neřekli, že musím přepnout nazpátek.”

Tento příběh mi vykládal jeden kolega z Ameriky a jsem si jistý, že u něj kroutíte hlavou stejně jako já. Přiznám se, že jsem mu dlouho moc nevěřil až do té doby, než se mi dostal do rukou výsledek průzkumu, který jsme si nechali udělat.  Výsledek mě doslova šokoval. V průzkumu odpovídalo asi tisíc respondentů, kteří jsou majitelé notebooku s přepínatelnou grafikou. Pouze jedno procento uživatelů odpovědělo, že  někdy přepnuli grafiku. Tomu se říká studená sprcha. Určitě můžeme polemizovat o inteligenci americké populace, ale osobně věřím, že průzkum v Evropě by nebyl dramaticky lepší. Chápu, že pro některé geeky, je tahle věc nepochopitelná, ale bohužel se musíme vžít do situace, že 90 procent lidí nemá o nějaké přepínatelné grafice ani páru.

Z technického hlediska byla přepínatelná grafika do dnešního dne poměrně složitá a drahá věc. Ke každému výstupu (LCD notebooku, HDMI, VGA) bylo nutno přidělit takzvaný multiplex (někdy se tomu zkráceně říká “mux”), který se staral o přepnutí obrazového výstupu z mezi integrovanou a diskrétní grafikou. Hlavní nevýhodou tohoto řešení, je samotná hardwarová implementace, která poměrně prodražuje cenu základní desky. Díky složitosti jednotlivých propojení, je nutné použít na PCB více vrstev a to se promítne na ceně. Samotné přepnutí se pak projevuje bliknutím LCD, kdy multiplex musí přepnout výstup na druhou grafiku.

Optimus tohle všechno řeší naprosto elegantně, bez potřeby přepínání pomocí multiplexu. Jednoduše využíváme k přenosu dat PCI Express sběrnici, kdy diskrétní grafika pošle data z vlastního frame bufferu do systémové paměti, která je vyčleněná pro integrovanou grafiku a ta posléze zobrazí vyrenderovaný obraz. S trochou nadsázky se dá říci, že integrovaná grafika slouží jako jednoduché zobrazovadlo. Všechno působí tak přirozeně a jednoduše, až mne překvapuje, že na to do dnešní doby nikdo nepřišel. Samozřejmě že bylo nutné vyřešit pár úskalí, která jsou s tímto řešením spojená, ale to už není na tento článek.

Softwarová část Optima funguje podobně jako SLI. Ovladače obsahují profily, které mají nastaveno pro každou aplikaci preferované GPU. Tyto profily jsou automaticky updatovány po připojení k internetu, podobně jako se tomu děje u antivirových programů. Odpadá tak nutnost čekat no nové ovladače, nebo stahovat profily samostatně, tak jak je to nutné u SLI. Všechno je podřízeno maximální jednoduchosti, bez nutnosti cokoliv dělat ze strany koncového uživatele. Na druhou stranu to neznamená, že není možné nic kontrolovat. Dali jsme si interní pravidlo, že všechny “advance“ nastavení musí být dostupné na více jak tři kliknutí. To znamená, že většina pokročilých funkcí může být ovládána pouze od uživatelů, kteří přesně vědí, co dělají. V praxi to znamená, že je možné si vytvořit vlastní profily, upravit si existující (v případě že vám nesedí preferované GPU) nebo si zvolit globální nastavení pro všechny aplikace. Pokud vás zajímají do podrobnosti detaily o softwarové vrstvě Optima a jednotlivé “calls”, tak opět doporučuji některý z výše uvedených článků.

Mám notebook s Optimem už něco přes měsíc a jsem opravdu ohromený, jak bezproblémově to všechno funguje. V tomto případě odvedli naší programátoři vynikající práci. Pokud by vás to zajímalo, tak Optimus je z velké části dílem našich ruských kolegů včele se Sašou Ostojičem, který je ve svém oboru skutečná extratřída. Mimochodem Saša dneska napsal pěkný blogpost na nTersect.

Na druhou stranu nechci tvrdit, že Optimus nemá žádné nevýhody. U každého produktu, se vždycky něco najde. Z mého pohledu může být  pro některé uživatele problémem pouze podpora Windows 7. Nepočítám, že někdo bude v dnešní době prodávat nový notebook s Windows Vista nebo Windows XP, ale třeba u Linuxu to může zamrzet.

Myslím, že v případě Optima opravdu platí známé rčení, že v jednoduchosti je síla. Je až neuvěřitelné, že přes hromadu recenzí a článků, které se dnes objevily na internetu, jsem nezaznamenal jedinou negativní odezvu. Něco podobného si za čtyři roky u NV nepamatuji.

Bohužel to stejné neplatí u některých reakcí v diskuzích pod články. Osobně diskuze skoro vůbec nečtu a dneska se mi potvrdilo, že dělám dobře. Nevím, jestli jsou některé reakce dány neznalostí problému, nebo jednoduše nenávistí ke všemu co NV udělá, ale častokrát opravdu kroutím hlavou a někdy se i zasměji. Nechci se tím zbytečně zabývat, ale možná jedna perla za všechny:

40nm mobilní grafiky mají tak nízkou spotřebu v IDLE, že ATI žádný Optimus nepotřebuje, protože třeba RV840 má IDLE jen 8W.

Tohle prohlášení mě opravdu zaujalo. Opravdu mě dokáže překvapit neochvějná jistota některých diskutujících, přestože je vidět, že o daném problému mají velice málo informací. Ano RV840 má sice 8W v IDLE, ale bohužel je tady jedna podstatná věc a to je frame buffer. Ten totiž konzumuje dalších 9,6W a to nám dává dohromady 17,6W v IDLE pouze u grafické karty. Ono je totiž třeba se dívat na spotřebu celé grafiky a ne pouze na GPU. V případě v desktopu by tohle nikoho nezajímalo, ale u notebooku je 17W v nečinnosti poměrně dost. Notebook s CULV + GT215 (pokud ji Optimus odpojí) dosahuje pouhých 8W v IDLE (to je případ UL50Vf notebooku testovaného na PC Tuningu). Jak jistě sami uznáte tak RV840 konzumuje skoro dvakrát tolik v IDLE, což je celkem velký rozdíl.

Na Optimusu se u nás pracovalo přes 10 měsíců a je to jedna z nejdůležitějších technologíí, které kdy NV uvedla v mobilní sféře. Je radost sledovat totální nadšení u výrobců notebooků, kde se nám podařilo urvat opravdu velký podíl u nově připravovaných produktů. Dokonce jsme se dostali do situace, že někteří velcí OEM partneři budou nabízet notebooky pouze s NV grafikami, protože rozdíl v životnosti baterie v případě NV a naší konkurence je poměrně zásadní. AMD vsadilo jak u desktopů, tak u notebooků všechno na jednu DX11 kartu a nejsem si úplně jistý, jestli to bylo v případě mobilní platformy správné rozhodnutí. Následujících pár měsíců nám ukáže, kdo měl lepší strategii.

Po dlouhé době čekání a polovičatých pokusech typu Hybrid SLI nebo CrossFire tu máme konečně něco, co opravdu funguje. Pevně věřím, že to dokáže většina uživatelů ocenit. Jak dnes napsali v jedné recenzi:

Good things come to those who can wait !

PhysX opět na scéně

Posted: Leden 21, 2010 in AMD, NVIDIA, PhysX, Richard Hudy

Tento článek vznikl jako reakce na neustálé napadání a nepravdivé obviňování NV ze strany AMD. Vše co tady píšu, je můj osobní názor na celou situaci a rozhodně to není oficiální stanovisko naší firmy.

Uplynulo pár měsíců a PhysX nám opět čeří vody. Přál bych si, aby tomu bylo jinak, ale bohužel v tom má opět prsty Baron Prášil. AMD se ozvalo ústy Richarda Huddyho několika hardwarovým mediím s obviněním, že NV záměrně omezuje podporů vícejaderných procesorů z důvodu optimalizace PhysX pouze na GPU.  Abych se přiznal, hodně mne to překvapilo. Každá technologie má svoje mouchy, ale v případě PhysX bych je hledal jinde.

Na všechno zareagoval Nadeem Mohammad na našem blogu a samozřejmě vše naprosto jednoduše vyvrátil. Měl jsem možnost s ním dnes mluvit osobně a byl z celé věci dost naštvaný. Nadeem je jedním z prvních zaměstnanců AGEIA a jestli někdo zná PhysX SDK nazpaměť, tak je to tento člověk.  Od převzetí AGEIA naší firmou je jedním z klíčových lidí z našeho PhysX teamu.

Asi není nutné, abych tady znovu opakoval to co Nadeem napsal a proto vám doporučuji si přečíst jeho kratičké vyjádření. Smysl tohoto článečku je trochu jiný.

Když se podíváte zpět posledních pár měsíců do historie výroků ze strany AMD, tak mi není úplně jasné, proč je PhysX tolik zajímá, nebo ještě lépe, proč jim tolik vadí? Pokud si dobře vzpomínám, tak je to hlavně AMD, které pumpuje do veřejnosti výroky, že PhysX je nepodstatná a v podstatě mrtvá technologie.  Nepřijde vám to divné?

Osobně si myslím, že Richard tento týden odkryl skutečný důvod. Nebudeme ale předbíhat a podívejme se trochu do historie.

AMD se vždycky snažilo malovat obraz NV, jako největšího ďábla prosazujícího uzavřené technologie CUDA nebo PhysX, které v podstatě škodí celému světu. U každého takového rozhovoru jsem se dočetl, že OpenCL nás v podstatě všechny zachrání a je to jediná technologie, která má smysl. Nechci teď diskutovat o přínosech OpenCL jako takového, ale když se podíváte do historie tak NV je jedna z hlavních firem stojících za OpenCL dohromady s Apple.  Víte, že šéfem celého Khronosu (organizace stojící za OpenCL nebo OpenGL) je Neil Trevett, který je zároveň naším viceprezidentem? Neil přišel do NV po deseti letech z 3Dlabs a osobně ho mám moc rád, protože je s ním opravdu hodně legrace. Ok, zpět k tématu.

NV společně s Apple jsou firmy, které první demonstrovaly funkční OpenCL v chodu. Tuším, že to bylo někdy v květnu 2008. Samozřejmě jeden z důvodů je velká podobnost OpenCL a CUDA C, což je naše doména, ale to jsou právě ty investice, které se vám jednou vrátí. Kam tím mířím?  První demonstrace funkčního kódu na HW půl roku před naší konkurencí, první OpenCL BETA SDK a veřejná beta měsíce před naší konkurencí a takhle bych mohl pokračovat dál. Zvláštní v případě ďábla podporujícího jen uzavřené standardy, nemyslíte? Proč se někdo nepozastaví nad tím, že AMD bylo vlastníkem svých uzavřených standardů typu Stream/Brook+/CAL a nejednou prozřelo a začalo hlásat OpenCL ? Proč je OpenCL podporováno pouze na Radeonech 4000 a vyšších? Odpověď nechám na vás.

Dostáváme se k DirectCompute, který je dalším otevřeným standardem, tentokrát pod taktovkou Microsoftu. V červenci minulého roku uvedla NV první ovladače s podporou DirectCompute na všechny karty série 8800 a vyšší. Po několika týdnech se ozvalo AMD s ohlášením:

AMD’s upcoming next generation ATI Radeon family of DirectX 11 enabled graphics processors are expected to be the first to support accelerated processing on the GPU through DirectCompute.

V prosinci minulého roku pak AMD přidalo podporu DirectCompute pro karty ze série HD 4800 a 4700. Asi vás také napadá otázka co budou dělat uživatelé starších karet ? Připomínám, že AMD mělo ve firemním sloganu slova „customer centric“.

Tak a konečně se dostáváme nazpátek k PhysX a našemu Richardovi. V tomto rozhovoru, který poskytl Richard v roce 2007 serveru Bittech, se vyjadřuje, že společnost ATI mluvila s AGEIA o možnostech akcelerace fyziky přes GPU. Richard přímo řekl:

We talked to Ageia,’ admits Huddy, ‘and asked them whether they would like our GPU acceleration in the software case, but it would be somewhat embarrassing for them if we run it much faster, and certainly for the eye candy physics we do.

Jak je vidět, tak mu tehdy uzavřený standard nevadil do doby, než celou AGEIA koupila NV.

12. června 2008 ohlásilo AMD svoji spolupráci s Havokem, který je vlastněný společností Intel. Asi je každému jasné, že důvodem bylo uvedení podpory PhysX pro naše GeForce. To se dá normálně pochopit, protože jde o konkurenční boj. Rozdíl byl bohužel v tom, že NV měla první SDK, dema, první ohlášené tituly a pár starších her, kdežto na druhé straně byla tisková zpráva.

Každopádně AMD dosáhlo přesně to, co se od celého ohlášení čekalo. Spousta uživatelů začala živě diskutovat o tom, že v podstatě jsou síly vyrovnané. AMD má Havok a NVIDIA PhysX . Dokonce jsem četl některé recenze, kde byl Havok uváděn jako plus v případě karet AMD.  Člověk pak jen kroutí hlavou. Jedna věc mi ale není jasná. Proč se pořád tvrdí, že NV má lepší PR. Neznám moc případů, kdy jsme předvedli lepší kousky.

Uplynul skoro rok a AMD konečně ukázalo v březnu 2009 na GDC v San Franciscu nějaká dema s GPU fyzikou. Nebylo to nic závratného, ale člověk si říkal, že se snad bude konečně něco dít.  Článek píšu na konci ledna roku 2010. Od GDC 09 v San Franciscu se po Havoku a OpenCL slehla země. Nejsou známé žádné nové informace, nejsou ohlášeny žádné tituly. Pokud dobře počítám, je tomu přes rok a půl od původní tiskové zprávy z června 2008.

Minulý rok na konci léta ohlásilo AMD spolupráci s Bullet Physics. Doporučuji vám tento rozhovor, který se krátce po svém publikování dostal všude na internet. Erwin Coumans v něm říká dnes již legendární větu:

Bullet’s GPU acceleration via OpenCL will work with any compliant drivers, we use NVIDIA GeForce cards for our development and even use code from their OpenCL SDK, they are a great technology partner.

AMD kontruje naprosto neuvěřitelně :

“..Erwin would not know because he is irrelevant and ATI has their own team from Bullet working with them.”

Připomínám, že Erwin Coumans je hlavní vývojář Bullet Physics a člověk, který za ním v podstatě stojí. Co si o tom mám myslet?

Tak a dostáváme se k závěru mého článku. Jak vidíte, tak za rok a půl od tiskové zprávy, kterou AMD ohlásilo podporu pro Havok, se nestalo reálně skoro nic.  Rozhodně tu nejsem od toho, abych za to AMD nějak kritizoval. Není to jednoduchá záležitost a je k tomu potřeba hodně lidských zdrojů a peněz. Co ale nechápu, je potřeba nás pořád za PhysX očerňovat nejrůznějšími výroky. PhysX není perfektní, má určitě spoustu rezerv a nabídka titulů není nějak závratná, ale snažíme se na tom pracovat a HLAVNĚ NĚCO DĚLÁME!! Druhá strana si pořád na něco stěžuje a poukazuje na různé „podlé“ optimalizace nebo ještě „podlejší“ práci našich programátorů z devtech teamu.

V souvislosti s výrokem o nepodpoře multicore CPU mě napadá pouze jedna věc. První půlrok po oznámení spolupráce s HAVOKEM jsem neslyšel žádné velké narážky na PhysX, ale posledních pár měsíců je situace úplně jiná. Proč se AMD v poslední době vyjadřuje čím dál více k PhysX  ? Že by PhysX přeci jen nebyla ta mrtvá technologie, která nemá budoucnost?

Je mi jasné, že se do mě naveze spousta AMD fanboys a bude tvrdit, že jsem ulhaný PR člověk ve službách ďábelské firmy. Upřímně je mi to jedno. Článek píšu sám za sebe a mám vlastní mozek. Všechno co jsem v článku zmínil, jsou holá fakta, která mají přinutit některé lidi k zamyšlení.  Záleží už na vás, jestli to dokážete nebo ne.

GF100 architektura odhalena

Posted: Leden 18, 2010 in Fermi, NVIDIA

Po měsících spekulací jsme se odhodlali dnes ráno ke zveřejnění GeForce architektury Fermi. Dlouho jsem přemýšlel jak tento krátký post napsat. Nebudu nikoho zatěžovat detaily o architektuře, které si můžete přečíst na jiných serverech. Spíše bych se rád věnoval pár informacím, které jsem jinde nepostřehnul.

Je mi jasné, že se dnes najde spousta zklamaných lidí, kteří čekali od dnešního článku konkrétní informace o frekvencích, spotřebě a ostatních finálních specifikacích včetně výkonu. Všechny tyto informace si zatím necháme pro sebe z konkurenčních důvodů.  Rozumný člověk to snad pochopí.

Fermi je bez nadsázky asi nejpokrokovější GPU, které NVIDIE vytvořila za celou svoji existenci. Vývoj trval skoro čtyři roky a spolkl miliardy dollarů. Snažili jsme se poučit z předchozích generací našich karet a vytvořit skutečně moderní GPU, které bude odpovídat tomu, co si dnešní herní trh žádá. Každá nová generace sebou přináší problémy a samozřejmě je tomu tak i u Fermi.

Asi nemá smysl zastírat, že nás konkurence předběhla a je na trhu daleko dříve. Jsme si toho všichni vědomi a jsem si jistý, že v NV nenajdete člověka, který by toho nelitoval. Bohužel Fermi je velice komplexní čip a vývoj zabral více času, než kdokoliv z nás předpokládal.  Může nás to mrzet, ale to je asi tak jediné co s tím uděláme. Konkurence šla jednoduší cestou vylepšením stávající architektury s přidáním podpory DX11 a nová architektura je teprve čeká. Čas ukáže, jak se jim to podaří zvládnout.

Každopádně problémy už jsou snad za námi a brzy budeme moci dát nové karty do prodeje. V současné době už probíhá masová výroba čipů a novináři by měli dostat karty k testování příští měsíc. Uvedení na trh je plánováno na březen.  Dostupnost karet by měla být v den uvedení a v dostatečném množství. Podle mých informací je poptávka ze strany partnerů obrovská, ale snad se nám to podaří zvládnout.

Závěrem bych chtěl uvést jednu věc na pravou míru. Na podzim minulého roku se hodně psalo o tom, že NV opouští herní trh. Je pravda, že první informace, které jsme zveřejnili o Fermi, se týkaly výpočetní architektury, ale myslet si, že NV opustí herní trh mi přijde opravdu šílené. Doufám, že dnešním dnem je každému jasné, že herní GPU je pořád naším stěžejním odvětvím a ještě hodně dlouhou dobu bude. Jak nakonec bude karta vypadat ve srovnání s konkurencí, nechám raději na recenzentech.

Fermi jsme věnovali nejvíce času a peněz za celou existenci naší firmy.

Jak říká Henry Moreton (jeden z hlavních vývojářů čipu a veterán z SGI): “ Tento čip jsem nosil v hlavě skoro 20 let.“

Snad to dokážete ocenit.

PS: Články o architektuře najdete na většině známých světových webů. Můžu doporučit třeba Anandtech, Bjorn3D nebo HardOCP a z webů v ČR/ SK pak PC Tuning a PC Space.

DX11 teselace a současné hry

Posted: Leden 15, 2010 in AMD, DX11, NVIDIA

Tento příspěvek byl napsán z důvodu vysvětlení mého postoje a také jako reakce na neustálé provokace ze strany jednoho hodně zapáleného fanouška naší konkurence.

Protože se stále najdou někteří “ experti”, kteří viditelně nechápou můj postoj k DX11/patch vs opravdový DX11 tak jsem se rozhodl ukončit tuto debatu jednou provždy. Pojďme se podívat na tři proklamované DX11 tituly:

Battleforge – jediné k čemu Battleforge využívá DX11 je High Definition Ambient Occlussion (přepsané na Compute shadery ). Nejsem si úplně jistý, ale mám dojem, že to funguje i na DX10.1 verzi.

Dirt 2 a Stalker – stejná situace s HDAO jako v případě Battleforge .Obě dvě hry navíc využívají teselaci, ALE! Aby bylo možné využít všechny výhody teselace je nutné, aby se hra přímo pro DX11 vyvíjela, protože všechny modely musí s DX11 teselací počítat. Toto není případ Dirt2 nebo Stalkeru, kde se jedná o n-patches teselaci aka pn-triangles. Ta je tu s námi už od dob DirectX 8. Pamatujete si ještě na ATI Truform ? Už R200 měla jednoduchou teselační jednotku. Pokud nejste přímo v obraze, tak doporučuji tento pěkný článek na iXBTlabs, tuším z roku 2002. Mimochodem teselace byla obsažena i v GeForce 3 (narozdíl od ATI se jednalo o Bezier patches ),ale bohužel se v té době žádná metoda teselace výrazněji neprosadila a byla z další generace našich karet odstraněna.

Samozřejmě je tu ještě jedna důležitá věc a tou je samotné využití. Nejsem si úplně jistý, jestli zrovna Dirt 2 je ideální titul pro demonstraci teselace. Při rychlosti přes 200km za hodinu si asi moc detailů kolem trati nevšimnete.

První titul od začátku vyvíjený pro DX11, který přijde na trh v březnu, je Aliens vs Predator. Je to první hra, kde je většina modelů ve hře vytvářena s ohledem na DX11 teselaci a také podle toho vypadá. I když se jedná o ATI podporovaný titul, nemám problém uznat, že je to první skutečná DX11 hra.

Asi nejvíce mě minulý rok pobavily spekulace, že Fermi bude podporovat pouze softwarovou teselaci. Dokážu to pochopit na fórech, která jsou plná nesmyslných výplodů, ale od toho tady jsou. Nejde mi ale do hlavy, že někdo může na toto téma napsat veřejně článek a tvrdit, že je to naprostý fakt.

Někdy bych si přál být klasickým PR flašinetem, bez jakékoliv znalosti problému. Ušetřil bych si spoustu nervů a nemusel bych tolik valit oči, při čtení některých článků.

Když mi před pár měsíci tvrdili kolegové z našeho Devrel teamu, že nový Batman bude patřit k nejlepším hrám tohoto roku, nevěřil jsem jim ani slovo. Osobně si nepamatuji, že by některá hra založená na filmovém Batmanovi v minulosti výrazně zabodovala. Většinou se jednalo o průměrné tituly, které se snažily využít popularity filmové adaptace. Batman Arkham Asylum ale všechno změnil.

Eidos, DC Comics a Warner Bros pojali uvedení na trh opravdu velkolepě. Pro Eidos je nový Batman stěžejním titulem pro druhou polovinu tohoto roku a podle toho také vypadala masivní reklamní kampaň. Batmanovi se dokonce podařilo zapsat do Guinesovy knihy rekordů s nejlepší průměrnou známkou ze všech recenzí. Bohužel hra také rozbouřila diskuze na mnoha hardwarových fórech, kvůli podpoře naší technologie PhysX, která leží už dlouho v žaludku některým jedincům speciálně v Čechách. Všechno ještě více rozdmýchal Ian MacNaughton z AMD, který si na svém blogu postěžoval na neexistující anti-alising v Batmanovi pro ATI grafické karty. Na některá obvinění zareagoval Eidos prostřednictvím PC Per. a přijde mi, že Iana celkem ztrapnil. Každopádně se nechci touto hloupou kauzou už dál zabývat. Pokud vás zajímá celé pozadí, tak doporučuji pěkné shrnutí od Mirka Jahody na Extrahardware.

Před týdnem jsem se vrátil z GTC a neměl jsem moc čas na hraní, ale na pár hodin jsem Batmana vyzkoušel. Postavil jsem si k tomu ultimátní herní sestavu se dvěma GTX285, Core i7 na 4GHz a všechno to připojil na 50‘ Full HD plazmu a 7.1 THX zesilovač. Pro srovnání, jsem si ještě vyzkoušel konzolovou verzi na xbox360 a PS3. Rozdíl mne opravdu ohromil. PC verze je na úplně jiné úrovni. Rozlišení textur, framerate a dokonce i kvalita zvukových samplů mi přišla na PC mnohem lepší. Asi největší rozdíl představují zapnuté PhysX efekty, které dělají z některých úrovní úplně jiný zážitek (Scarecrow je nářez).  Samozřejmě při srovnání výkonu dnešních PC a herních konzolí, není takový rozdíl žádným překvapením. Snažím se jen poukázat na skutečnost, že někteří zastánci herních konzolí tvrdí, že hraní na PC nepřináší žádný rozdíl, což třeba u nového Batmana rozhodně neplatí.  Největším problémem je samozřejmě cena takového PC, které se pohybuje v řádech desítek tisíc korun oproti pár tisícovkám, co zaplatíte za xbox360 nebo PS3.  Je to ale stejné jako s Ferrari. Pokud na to máte a chcete to nejlepší, tak vás ani vysoká cena neodradí. Na druhou stranu je pořád hodně lidí, kteří mají doma na hraní jak PC, tak konzole, protože prostě některé hry na PC nikdy nebudou. Toto je samozřejmě i můj případ.

Po herní stránce jsem zatím nového Batmana tak nehrál, abych mohl hru nezaujatě zhodnotit. Jsem velkým fanouškem posledních Batmanů v pojetí Chrise Nolana a Arkham Asylum působí podobně temným dojmem, jako filmové zpracování. V tomto případě jsou moje pocity z hraní fakt skvělé. Když jsem po pár minutách ve hře potkal při vystupovaní z výtahu Croca, běhal mi mráz po zádech při slovech „I will hunt you down“, které buráceli ze 7.1 reproduktorů kolem mě. Po zvukové stránce, je nový Batman opravdu špička. Velmi ošemetné je hodnocení hratelnosti. Viděl, jsou různé názory v diskuzích, že je to jen obyčejná mlátička pro děti, kde stačí mačkat pouze tlačítko myši. Je to samozřejmě nesmysl a mám dojem, že ten kdo tohle prohlašuje, hrál tak možná jen demo. Právě možnosti soubojů a různá komba, které se naučíte během hry, rozhodně nedělají z Batmana jen tupou mlátičku.

Je tady ale jedna věc, která opravdu zaslouží pochvalu. Rocksteady neudělali jen prostou konverzi z konzolí, ale snažili se PC verzi díky PhysX skutečně vylepšit a nabídnout něco jako prémiový obsah. Za to mají u mě velké plus a doufám, že se ostatní nechají inspirovat. Na rychlo splácených portů z konzolí totiž začíná nápadně přibývat.

Určitě se také sluší zmínit kluky z našeho Devtech teamu, kteří měli na starosti implementaci PhysX a zprovoznění anti-aliasingu na GeForce kartách.  Mají můj velký obdiv, nejen za to, že po programátorské stránce patří mezi světovou extratřídu, ale za to, že dokážou žít každých pár měsíců v jiné části světa a obětovat své práci prakticky celý osobní život. Mimochodem, momentálně někteří z nich pracují na jednom projektu přímo v České republice.

Tak jsem se k tomu konečně dostal. Poslední týden jsem strávil hlavně na cestách, takže na psaní nebylo moc času, každopádně Snow Leopard a nové Macbooky si určitě pár řádků zaslouží.

Minulý týden společně s uvedením nového iPhone a trochu vylepšených Macbooků zveřejnil Apple také pár informací, ohledně vylepšeného OSX Snow Leopard. Osobně nejsem žádný zarytý fanda Applu ani zapálený obdivovatel Microsoftu a používám v podstatě operační systémy od obou společností, ale na Snow Leopard se skutečně těším. Hlavním tahákem stejně jako v případě Windows 7 je výrazné zapojení GPU do náročných výpočetních úloh. Apple na rozdíl od Microsoftu používá jazyk Open CL, který by měl pomoci k masivnímu rozvoji GPU pro výpočetní úlohy a je tak součástí “ svaté trojky “ DirectX Compute, C, Open CL, která využívá všech výhod CUDA platformy.

NVIDIA je velkým propagátorem OpenCL na kterém společně spolupracovala s Apple. Jako první jsme ukázali funkční OpenCL kód v praxi, uvedli první ovladače a od minulého týdne si můžou stáhnout registrovaní vývojáři ovladače pro Windows XP a Linux.

Apple se snaží co nejvíce využít potenciál GPU a tak najdeme v Snow Leopard spoustu úloh, které se budou řešit přes grafickou kartu. Základ by měl tvořit aplikační balík iLife, kde se počítá s využitím OpenCL hlavně v převodu videa a většině náročných výpočetních operací. Snow Leopard samozřejmě přinese i spoustu jiných vylepšení, z nichž pro mne daleko nejzajímavější je nativní podpora Exchange pro Mail a iCal. Bohužel jsem nucen momentálně používat Entourage 2008 a přeji za to všem vývojářům, kteří se na tomto “užasném nástroji“ podíleli co nejbolestivější smrt. Na popsání všech problému s Entourage bych potřeboval mnoho stran a tak stačí, když řeknu, že se jedná o nejhorší Exchange implementaci na světě, která mě hodlá brzo připravit i o ten poslední zbytek vlasů co mám.

U nového hardware Apple nezapomněl naštvat hlavně majitele Unibody 13‘ Macbooků, když přejmenoval třináctky na Macbook Pro a přidal konečně Firewire, jehož absenci všichni kritizovali. Nový Macbook Pro 13’ tak dostává kromě výše zmíněného Firewire, podsvícenou klávesnici, mnohem lepší výdrž na baterie a to všechno za původní cenu nejlevnějšího modelu. Je jasné, že tlak na cenu je v dobách ekonomické krize větší, ale také si dokážu představit protáhlé obličeje majitelů púvodních unibody Macbooků a to jich znám opravdu hodně.

Fantastická GeForce 9400M pořád zůstává a s příchodem OpenCL je mi naprosto jasné, proč Apple vykopnul minulý rok všechny Intel čipsety z notebooků. GeForce 9400M je samozřejmě mnohem lepší GPU než cokoliv z nabídky Intelu, ale teprve s OpenCL a Snow Leopardem dostane ty správná křídla.