Finalmente estou tirando esse projeto da gaveta!
Desde o meio do ano passado, quando comecei a colocar modelos de ML para rodar no meu ambiente, queria iniciar esse projeto.
Hoje o Téo Me Why tem diversos serviços rodando e vários deles consomem modelos de ML criados em casa. A coisa começou a complicar quando a cada modelo ou serviço novo, seria necessário realizar as mesmas integrações:
- Saber a rota do modelo exposo (API)
- Saber quais features o modelo precisa para realizar a inferência
A solução que pensei foi: bora centralizar isso em um novo serviço que faça esse meio de campo. Assim nasce a Palantir!
Assim, o serviço só precisa pedir para a Palantir o nome do modelo e passar um id. A partir daí, a Palantir busca os dados do modelo correspondente no MLFlow, obtém suas features e faz uma requisição para o modelo em questão.
Estou bem feliz com os nossos avanços. Tudo isso em live. Vale a pena conferir a gravação no YouTube ;D
https://www.youtube.com/playlist?list=PLvlkVRRKOYFQAv7BxUo2G2JyAB7pduLlP