dc.contributor.advisor | Tiihonen, Timo | |
dc.contributor.author | Haukka, Kimi | |
dc.date.accessioned | 2024-02-06T07:39:08Z | |
dc.date.available | 2024-02-06T07:39:08Z | |
dc.date.issued | 2024 | |
dc.identifier.uri | https://jyx.jyu.fi/handle/123456789/93266 | |
dc.description.abstract | Tekoälyn ja koneoppimisen, erityisesti transformer-pohjaisten kielimallien, kehitys on mullistanut kieltenkäsittelyn. Tässä tutkielmassa tarkastelemme näiden mallien kykyä tuottaa ja ymmärtää kieltä, keskittyen niiden oppimisprosesseihin ja kielen rakenteiden sisäistämiseen. Tutkimme kuinka transformer-mallien 'self-attention-mekanismi' edistää tekstin syvällistä ymmärrystä ja kuinka nämä mallit kehittävät kykyä ennustaa tulevia sanoja ja lauseita, mikä auttaa hahmottamaan kieliopillisia ja semanttisia rakenteita paremmin.
Tutkielmassa käsitellään myös, missä määrin näiden mallien kielen ymmärtäminen on aitoa ja missä määrin se perustuu vaikutelman luomiseen. Vaikka mallit ovat kehittyneitä, niiden kyky ymmärtää kieltä ei ole yhtä syvällinen kuin ihmisen kyky ymmärtää kieltä. Tutkielmassa korostetaan, että näiden mallien todellinen ymmärryskyky jää rajoitetuksi, vaikka ne ovatkin kehittyneet tuottamaan tekstiä, joka vaikuttaa ymmärtävän kieltä. | fi |
dc.description.abstract | The development of artificial intelligence and machine learning, especially transformer-based language models, has revolutionized language processing. In this study, we examine the ability of these models to generate and understand language, focusing on their learning processes and the internalization of language structures. We explore how the 'self-attention mechanism' of transformer models contributes to a deep understanding of text and how these models develop the ability to predict future words and sentences, which helps in grasping grammatical and semantic structures better.
The study also addresses the extent to which the language understanding of these models is genuine and the extent to which it is based on creating an impression. Although the models are advanced, their ability to understand language is not as profound as the human ability to understand language. The study emphasizes that the real comprehension capability of these models remains limited, even though they have developed to produce text that appears to understand language. | en |
dc.format.extent | 29 | |
dc.language.iso | fi | |
dc.rights | In Copyright | en |
dc.subject.other | LLM | |
dc.subject.other | NLP | |
dc.subject.other | Transformer-arkkitehtuuri | |
dc.title | Kuinka suuret kielimallit oppivat ymmärtämään ja tuottamaan kieltä? | |
dc.type | bachelor thesis | |
dc.identifier.urn | URN:NBN:fi:jyu-202402061757 | |
dc.type.ontasot | Bachelor's thesis | en |
dc.type.ontasot | Kandidaatintyö | fi |
dc.contributor.tiedekunta | Informaatioteknologian tiedekunta | fi |
dc.contributor.tiedekunta | Faculty of Information Technology | en |
dc.contributor.laitos | Informaatioteknologia | fi |
dc.contributor.laitos | Information Technology | en |
dc.contributor.yliopisto | Jyväskylän yliopisto | fi |
dc.contributor.yliopisto | University of Jyväskylä | en |
dc.contributor.oppiaine | Tietotekniikka | fi |
dc.contributor.oppiaine | Mathematical Information Technology | en |
dc.type.coar | http://purl.org/coar/resource_type/c_7a1f | |
dc.rights.accesslevel | openAccess | |
dc.type.publication | bachelorThesis | |
dc.contributor.oppiainekoodi | 602 | |
dc.subject.yso | tekoäly | |
dc.subject.yso | koneoppiminen | |
dc.subject.yso | neuroverkot | |
dc.rights.url | https://rightsstatements.org/page/InC/1.0/ | |