Näytä suppeat kuvailutiedot

dc.contributor.advisorTiihonen, Timo
dc.contributor.authorHaukka, Kimi
dc.date.accessioned2024-02-06T07:39:08Z
dc.date.available2024-02-06T07:39:08Z
dc.date.issued2024
dc.identifier.urihttps://jyx.jyu.fi/handle/123456789/93266
dc.description.abstractTekoälyn ja koneoppimisen, erityisesti transformer-pohjaisten kielimallien, kehitys on mullistanut kieltenkäsittelyn. Tässä tutkielmassa tarkastelemme näiden mallien kykyä tuottaa ja ymmärtää kieltä, keskittyen niiden oppimisprosesseihin ja kielen rakenteiden sisäistämiseen. Tutkimme kuinka transformer-mallien 'self-attention-mekanismi' edistää tekstin syvällistä ymmärrystä ja kuinka nämä mallit kehittävät kykyä ennustaa tulevia sanoja ja lauseita, mikä auttaa hahmottamaan kieliopillisia ja semanttisia rakenteita paremmin. Tutkielmassa käsitellään myös, missä määrin näiden mallien kielen ymmärtäminen on aitoa ja missä määrin se perustuu vaikutelman luomiseen. Vaikka mallit ovat kehittyneitä, niiden kyky ymmärtää kieltä ei ole yhtä syvällinen kuin ihmisen kyky ymmärtää kieltä. Tutkielmassa korostetaan, että näiden mallien todellinen ymmärryskyky jää rajoitetuksi, vaikka ne ovatkin kehittyneet tuottamaan tekstiä, joka vaikuttaa ymmärtävän kieltä.fi
dc.description.abstractThe development of artificial intelligence and machine learning, especially transformer-based language models, has revolutionized language processing. In this study, we examine the ability of these models to generate and understand language, focusing on their learning processes and the internalization of language structures. We explore how the 'self-attention mechanism' of transformer models contributes to a deep understanding of text and how these models develop the ability to predict future words and sentences, which helps in grasping grammatical and semantic structures better. The study also addresses the extent to which the language understanding of these models is genuine and the extent to which it is based on creating an impression. Although the models are advanced, their ability to understand language is not as profound as the human ability to understand language. The study emphasizes that the real comprehension capability of these models remains limited, even though they have developed to produce text that appears to understand language.en
dc.format.extent29
dc.language.isofi
dc.rightsIn Copyrighten
dc.subject.otherLLM
dc.subject.otherNLP
dc.subject.otherTransformer-arkkitehtuuri
dc.titleKuinka suuret kielimallit oppivat ymmärtämään ja tuottamaan kieltä?
dc.typebachelor thesis
dc.identifier.urnURN:NBN:fi:jyu-202402061757
dc.type.ontasotBachelor's thesisen
dc.type.ontasotKandidaatintyöfi
dc.contributor.tiedekuntaInformaatioteknologian tiedekuntafi
dc.contributor.tiedekuntaFaculty of Information Technologyen
dc.contributor.laitosInformaatioteknologiafi
dc.contributor.laitosInformation Technologyen
dc.contributor.yliopistoJyväskylän yliopistofi
dc.contributor.yliopistoUniversity of Jyväskyläen
dc.contributor.oppiaineTietotekniikkafi
dc.contributor.oppiaineMathematical Information Technologyen
dc.type.coarhttp://purl.org/coar/resource_type/c_7a1f
dc.rights.accesslevelopenAccess
dc.type.publicationbachelorThesis
dc.contributor.oppiainekoodi602
dc.subject.ysotekoäly
dc.subject.ysokoneoppiminen
dc.subject.ysoneuroverkot
dc.rights.urlhttps://rightsstatements.org/page/InC/1.0/


Aineistoon kuuluvat tiedostot

Thumbnail

Aineisto kuuluu seuraaviin kokoelmiin

Näytä suppeat kuvailutiedot

In Copyright
Ellei muuten mainita, aineiston lisenssi on In Copyright