Capítulo 2. Espreitar para dentro da caixa negra da IA
Este trabalho foi traduzido com recurso a IA. Agradecemos o teu feedback e comentários: translation-feedback@oreilly.com
À medida que os modelos de linguagem de grande dimensão (LLMs) e as ferramentas de IA generativa são introduzidos nas aplicações de cuidados de saúde, trazem consigo os seus elementos complexos e opacos - a qualidade de "caixa negra" inerente que faz com que o funcionamento interno destes sistemas pareça obscuro. Isto levanta questões naturais para os clínicos e líderes da área da saúde que estão a considerar a utilização de LLMs. Como é que estes sistemas de IA desenvolvem exatamente as suas competências clínicas? O que é que se passa nos bastidores durante a sua formação? Será que a natureza de caixa negra destas ferramentas emergentes torna as recomendações e os processos de pensamento dos LLMs demasiado inescrutáveis para uma utilização médica ou de cuidados de saúde séria?
O Capítulo 2 levanta o capuz para examinar o que reside nos sistemas de IA que fazem as manchetes dos jornais de hoje. Discutimos a forma como os transformadores, os mecanismos de auto-atenção, as redes neuronais e outros elementos técnicos ingerem conhecimentos sobre cuidados de saúde e desenvolvem capacidades de raciocínio. Embora uma contabilidade completa da matemática por detrás de cada componente esteja para além das necessidades de um leitor típico, fornecemos uma explicação acessível de como os LLMs funcionam. Espreitar para ...