O armário virtual de Cher no filme clássico de 1995 Sem noção é uma das sugestões de tecnologia futurista mais cobiçadas da era pré-Y2K. É também a comparação mais próxima que o Google tem para sua mais recente ferramenta de teste virtual, que usa um novo modelo de IA para oferecer uma experiência de compra on-line quase tão personalizável quanto a da fashionista de Beverly Hills.
Lançado hoje, o virtual try-on (VTO) do Google busca tornar a experiência de compra on-line mais parecida com o processo de compra de roupas na loja, com testes de imagens realistas que oferecem mais opções de tamanho e tom de pele para clientes on-line. , bem como opções de vestuário que imitam o serviço que um cliente obteria com um associado de vendas pessoal, explica o Google.
“42% dos compradores online não se sentem representados por imagens de modelos e 59% se sentem insatisfeitos com um item que compraram online porque parecia diferente do que o esperado”, escreveu a empresa em seu anúncio. “Nossos novos refinamentos guiados podem ajudar os compradores dos EUA a ajustar os produtos até encontrar a peça perfeita. Graças ao aprendizado de máquina e aos novos algoritmos de correspondência visual, você pode refinar usando entradas como cor, estilo e padrão. E, ao contrário das compras em uma loja, você não está limitado a um varejista: você verá opções de lojas em toda a Web. Você pode encontrar esse recurso, disponível para iniciantes, diretamente nas listas de produtos.”
A nova tecnologia é comercializada como a versão mais avançada do que conhecemos como opções de teste de Realidade Aumentada (AR), como as experiências de maquiagem Metaverse lançadas no ano passado, os muitos filtros de beleza introduzidos regularmente no TikTok, ou marcas piadas de marketing baseadas na oferta de calçados totalmente virtuais da Gucci(abre em uma nova aba). A Amazon até experimentou sua própria ferramenta AR para experimentar virtualmente sapatos e óculos(abre em uma nova aba).
A nova tecnologia do Google usa um processo diferente que combina seu Shopping Graph(abre em uma nova aba), o banco de dados mundial de informações de compras da empresa, com um processo conhecido como “difusão”. Na difusão, explica o Google, pixels extras (conhecidos como “ruído”) são gradualmente adicionados a uma imagem e depois removidos, deixando para trás uma impressão ou reconstrução da imagem original. Quando isso é utilizado em um modelo de IA treinado com uma biblioteca de imagens que mostra modelos humanos usando roupas em diferentes poses (em vez de uma coleção de dados de texto, como um modelo de linguagem grande ou LLM), resulta na possibilidade de os compradores gerarem um novo, mais imagem precisa e experimental.
O Google também diz que seu teste virtual vai além de outras formas de opções de AR, oferecendo uma seleção mais ampla de modelos humanos diversos – embora ainda limitados – e aumentando a capacidade dos compradores de selecionar um modelo que se pareça com eles para fazer escolhas de compras mais informadas.
Ao contrário dos passes de IA de marcas como Levi’s, que optaram por renunciar a modelos humanos para a diversidade gerada por IA , o Google está tentando combinar a variabilidade humana da vida real com a complexidade da IA. Outras aplicações de AI e AR provaram ser limitadas em seu treinamento , com falta de diversidade em sua criação(abre em uma nova aba)que leva a consequências na vida real(abre em uma nova aba)para pessoas de cor que os usam – tornando notável o esforço explícito do Google para expandir sua entrada de dados para o modelo de IA de teste virtual.
Mas a questão permanece se a nova ferramenta realmente terá um impacto amplo e duradouro na construção de IA com a diversidade em mente. No mínimo, a nova ferramenta de teste virtual dá um passo significativo em relação a outras ofertas no mercado, reconhecendo compradores com uma variedade de formatos e aparências corporais (e seu potencial de compra) em uma sugestão de que a IA poderia ser usada para promover inclusão de moda. Acho que é hora de atualizar o armário de verão.