A study on the embedding spaces of the BERT language model

Abstract
Tässä työssä käsitellään luonnollisen kielen käsittelynä tunnettua tekoälyn osa-aluetta. Työssä keskitytään niin kutsuttuun transformer-arkkitehtuuriin pohjautuvaan BERT-nimiseen tekoälymalliin. Erityisesti työssä tarkastellaan tämän mallin upotusvektoreita, jotka kuvastavat mallin sisäistä luonnollisen tekstin esitysmuotoa.
Main Author
Format
Theses Master thesis
Published
2024
The permanent address of the publication
https://urn.fi/URN:NBN:fi:jyu-202410296663Käytä tätä linkitykseen.
Language
English
License
CC BY 4.0Open Access
Copyright© The Author(s)

Share