Fotorrealismo – o futuro dos visuais de videogame

Fotorrealismo – o futuro dos visuais de videogame

 

Os visuais dos jogos estão entrando em uma nova era de renderização física realista. Falamos com a Nvidia, especialista em hardware gráfico, sobre o que isso significa.

 

Imagine olhar nos olhos de um personagem de videogame e saber que eles mentiram para você, ou que estão assustados ou que amam você.

No momento, mesmo com o poder surpreendente dos atuais processadores multi-core e chipsets gráficos, as pessoas que encontramos em jogos visualmente bonitos como Far Cry 4, Assassin’s Creed: Unity e Tomb Raider não têm algo em seus rostos, alguma centelha de humanidade. O fenômeno tem um nome conhecido, Uncanny Valley, cunhado pelo professor de robótica Masahiro Mori. Sua hipótese, apresentada pela primeira vez em 1970, era que, à medida que as reproduções humanas se aproximam da autenticidade, as pequenas imprecisões se tornam cada vez mais perturbadoras. Os personagens de videogame parecem tão reais, mas não reais o suficiente, e nós nos afastamos deles.

Anime- Sadamitsu the Destroyer – Um anime com cara de tokusatsu

Os mundos dos videogames são igualmente abstratos. A cidade de Los Santos em Grand Theft Auto V; a movimentada Paris de Assassin’s Creed: Unity … todos os detalhes da superfície estão lá, mas esses são apenas cenários de filmes virtuais. A maioria das portas está trancada e, se você apontar o lançador de foguetes mais poderoso do GTA em qualquer prédio, o impacto explosivo não causará nenhum dano. O custo computacional da simulação de alvenaria em colapso é enorme.

 

Os problemas da realidade

Esses são os desafios enfrentados pelos fabricantes de placas gráficas de videogame, os pedaços de hardware complexo que se encaixam no seu computador ou console e que funcionam ao lado da unidade central de processamento para produzir esses visuais de tirar o fôlego. “Os desenvolvedores de jogos estão cada vez mais interessados em mundos altamente simulados e dinâmicos que permitem aos jogadores criar, destruir e interagir com o ambiente de maneiras interessantes”, diz Tony Tamasi, vice-presidente sênior de conteúdo e tecnologia da Nvidia, especialista em hardware gráfico. “Por ter experiências mais dinâmicas ou design orientado por simulação, os mundos se tornam mais vivos e envolventes, sem necessariamente ter que ser cuidadoso – e caro – modelado, animado e com scripts”.

 

Hero Factory Brazil- Quem somos

 

Em vez de construir ambientes como cenários de filme 3D glorificados, os desenvolvedores de jogos agora os constroem como grupos de objetos físicos simulados que reagem às ações dos jogadores. Há movimentos nessa direção há vários anos: títulos como Red Faction, Far Cry, Crysis e Breach apresentam cenários destrutíveis, mas são muito controlados e isolados em áreas específicas. Até o impressionante sistema Levolution do Battlefield 4, que cria momentos autênticos de destruição cênica maciça, opera apenas com certos edifícios. No entanto, parece que os próximos títulos, como a reinicialização da aventura de ação em mundo aberto da Microsoft, Crackdown, e o shooter de estratégia para vários jogadores Rainbow Six Siege terão destruição em larga escala que altera completamente o ambiente para os jogadores.

 

 

Isso foi permitido pelos avanços nos cálculos de física em tempo real feitos pelos fabricantes de placas gráficas e pelos codificadores por trás dos avançados mecanismos de jogos 3D, como Cryengine e Unreal Engine 4. Estamos entrando em uma nova era de renderização baseada em física, onde as propriedades de tecidos e materiais individuais são simulados para produzir ambientes naturais e reativos. “Tivemos que desenvolver algoritmos de simulação física altamente paralelos e amigáveis à GPU, que em muitos casos exigiram que repensássemos os algoritmos em um nível fundamental”, diz Tamasi. “Estamos no ponto em que essas coisas podem produzir experiências realmente envolventes. As franquias de Batman e Borderlands realmente levaram essa capacidade a sério. ”

Acendendo as luzes

Outra parte importante desse movimento em direção a ambientes simulados naturalistas é a iluminação. Por muitos anos, as fontes de luz e sombra foram “transformadas” em cenas de videogame, o que significa que elas foram atraídas para a paisagem pelos artistas. Agora, os jogos apresentam fontes de luz físicas realistas que simulam a interação entre raios de luz e objetos. Os personagens projetam sombras quando passam sob as lâmpadas da rua; chamas cintilam em espadas de metal. O Santo Graal é a “iluminação global”, essencialmente um sistema que simula com precisão como a luz reflete e refrata entre diferentes superfícies, criando uma variedade de fontes de iluminação indireta. Isso é comum em filmes animados, mas eles podem renderizar todas as cenas com antecedência, usando fazendas inteiras de computadores poderosos; os jogos precisam renderizar todos os momentos em tempo real em um único PC ou console.

Personalização e controle completos

“Fizemos avanços incríveis na capacidade de renderização em tempo real ao longo dos anos”, diz Tamasi. “As sombras passaram de blobs simples, a sombras projetadas com bordas duras, a mapas de sombras com arestas suaves, a uma forma de iluminação global chamada oclusão ambiental. Muitos filmes com extenso trabalho em computação gráfica usam formas avançadas de renderização, chamadas de rastreamento de caminhos. Eles simulam a propagação da luz real, disparando bilhões de raios na cena, refletindo-os e simulando fisicamente a interação da luz com a superfície. Essas técnicas podem produzir ótimos resultados, mas são incrivelmente caras em termos computacionais. Eles podem ser feitos em GPUs; A Nvidia possui o Iray, uma solução de renderização foto-realista fisicamente correta e o OptiX, um mecanismo de rastreamento de raios que eleva você a um novo nível de realismo interativo. ”

 

Veremos os frutos desses avanços ao longo de 2015. Todos os gostos de Witcher 3, Bloodborne e Project Cars apresentam iluminação complexa em tempo real e efeitos de sombra, e prometem inovar em elementos como clima dinâmico, ciclos dia / noite e sutis. efeitos de partículas. “Imagine nuvens de poeira volumétricas verdadeiramente baseadas em simulação, levantadas por um helicóptero de pouso, com os personagens dos jogadores se movendo através desses redemoinhos de poeira, interagindo com eles”, diz Tamasi. “Ou personagens abrindo buracos nas paredes de um castelo, permitindo que a luz do sol flua de fora, saltando do chão, para as paredes, para as cortinas.”

 

A questão humana

Mas ainda há essa grande questão pairando sobre os habitantes desses ambientes. Enquanto os rostos de Joel e Ellie em Last of Us, e Kevin Spacey em Call of Duty: Advanced Warfare, têm momentos de humanidade genuína, ainda há um deslocamento assustador. Um vão.

A Nvidia vê isso. “A pele é um problema computacionalmente difícil”, diz Phil Scott, o principal evangelista técnico da Nvidia na Europa. “A pele aceita a luz do meio ambiente e, em seguida, a luz se espalha nos primeiros milímetros de carne. Em seguida, ele ressurge, colorido pelo que encontrou. Se eu segurar minha mão contra a luz, você verá um brilho vermelho nas bordas: nos jogos, estamos realmente entrando nessas sutilezas importantes agora. ”

O cabelo também sempre foi um problema – renderizar milhares de hastes para criar algo que não parece uma peruca moldada em plástico tentou muitas equipes. A AMD, outra fabricante de placas gráficas e principal rival da Nvidia no mundo, desenvolveu sua tecnologia TressFX para ajudar a resolver o problema – produziu o convincente rabo de cavalo de Lara Croft no jogo Tomb Raider.

 

parece coisa periférica, mas não é. “Se os videogames devem contar mais histórias emocionais, isso é importante”, diz Scott. “Uma pele melhor torna os personagens mais críveis; e os olhos são a porta de entrada para a alma. Como seres humanos, nos olhamos nos olhos, nos comunicamos através dos olhos; portanto, mesmo que ocupem uma pequena parte do espaço da tela, os desenvolvedores precisam gastar muito esforço de renderização para torná-los realistas. ”

 

Jon Jansen, líder em tecnologia para desenvolvedores da Nvidia na Europa, escolhe o tema. “Os olhos são tão complexos por causa da maneira como eles interagem com a luz”, diz ele. “Há muitas reflexões internas, porque é um sistema de lentes. Veja como a indústria automotiva tenta render faróis em suas simulações – esse é um teste real para o traçado de raios, porque você tem muitas reflexões internas. Há algo disso acontecendo com os olhos.

 

“Há também a questão da dispersão da luz na superfície da córnea, porque não é uma superfície perfeitamente opaca. Há todos esses fenômenos físicos sutis acontecendo nos olhos e, se você dedicar tempo para fazer isso direito, é recompensado – pode obter resultados impressionantes. ”

 

Emoções como game design


É claro que mundos destrutíveis com propriedades físicas realistas e personagens humanos bonitos com olhos tristes não tornarão os jogos ruins bons ou histórias entediantes, mas podem permitir que os desenvolvedores explorem narrativas mais sutis. O drama criminal da Rockstar em 2011, LA Noire, que fez uso extensivo da captura de movimentos faciais, pediu aos jogadores para descobrir se os suspeitos estavam mentindo durante o interrogatório, lendo suas expressões e linguagem corporal. A fidelidade emocional não estava lá, mas pode demorar alguns anos. No final do ano passado, a Supermassive Games lançou uma demo de seu próximo título Até Dawn, mostrando seu uso impressionante da animação facial contextual:

 

 

 

Talvez um dia olhemos nos olhos fisicamente renderizados dos personagens do jogo e entendamos, pela maneira como a luz brilha em suas córneas, que eles estão chateados ou desesperados. Talvez a inteligência emocional seja um dia uma habilidade de jogo tão importante quanto a coordenação olho-mão.

Mas algum dia estaremos no estágio em que confundimos ambientes de jogo e personagens de jogo pela coisa real? Tim Sweeney, co-fundador da Epic Games, disse no ano passado que podemos esperar isso em dez anos. Ele está certo? “Estamos muito longe do fotorrealismo na renderização em tempo real”, diz Tamasi. “Estamos chegando ao ponto em que quantidades limitadas de CGI humano passam [como foto-realistas] para a maioria das audiências. São filmes com tempos de renderização efetivamente infinitos por quadro e artistas digitalizando, criando e animando com cuidado uma única apresentação.

“Os gráficos em tempo real estão provavelmente uma década ou mais atrás do filme em termos do que pode ser transmitido visualmente, e o filme ainda não está pronto. Eu diria que temos décadas a mais por vir. “

 

 

 

 

 

 

 

 

 

 

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Translate »