criado por @Xa9aX e co
Link: https://x.com/__z__9/status/1774965364301971849
Nesse eu aprendi várias coisas novas. O assunto original é “Aurora-M! The first multi lingual red-teamed open source continually pre-trained LLM”.
Entendi que é um modelo de IA, que entende e responde texto, open source, capaz de responder em vários idiomas. E além disso, ele foi testado por um red team.
Esse termo red team vem do mundo da segurança. O André Cunha, especialista em infraestrutura, me forneceu uma explicação bem simples e fácil de entender: Temos o Red o Blue Team. O Red ataca, e o Blue tenta se defender.
Trazendo isso pro mundo da IA, e depois de ler algumas fonte sobre o assunto, o Red Team vai tentar usar prompts para encontrar as brechas que levam o modelo a responder assuntos sensíveis, como por exemplo, racismo, fabricação de armas caseiras, etc.
E este modelo é inovador pois ele é um modelo que, além de ter sido passado pelo Red Team, seguiu as diretrizes da Casa Branca para o desenvolvimento de IA.
Aqui tem alguns links úteis que achei no meio do caminho:
- Red-Teaming Large Language Models (huggingface.co)
- Sobre Continuous Pre-Training: [2308.04014] Continual Pre-Training of Large Language Models: How to (re)warm your model? (arxiv.org)