Исслeдoвaтeли с Netease Fuxi AI Lab и Мичигaнскoгo унивeрситeтa сoздaли мeтoд мaшиннoгo oбучeния MeInGame, кoтoрый мoжeт aвтoмaтичeски гeнeрирoвaть 3D-пeрсoнaжeй, нa oснoвe фотографий реальных людей.
Пользу кого того чтобы 3D-модели лиц реалистично воссоздавали специальность человека, они должны непременничать обучены на больших объемах данных изображений и текстур. Да и то компиляция этих наборов данных может прибрать к рукам много времени и требует регулярного пополнения данных.
В надежде упростить этот трудоемкий движение, авторы работы использовали неважный (=маловажный) сгенерированные фотографии, а изображения реальных людей. Поначалу они реконструировали лицо нате основе 3D-морфируемой модели лица (3DMM) и сверточных нейронных сетей (CNNs), а поэтому переносили форму 3D-лица сверху сетку шаблонов.
В результате обмет получает изображение лица и развернутую УФ-текстурную карту в качестве входных данных, а посему она прогнозирует коэффициенты освещения. Авторы сравнивали тура игровых персонажей с другими сгенерированными моделями и, по всем вероятностям, их метод справился одним изо лучших.
- Ранее, искусственный голова впервые написал пьесу, а личность поставил ее.
Подписывайтесь получи и распишись LIGA.Tech в Telegram: токмо важное