KoGPT-Joong-2 icon indicating copy to clipboard operation
KoGPT-Joong-2 copied to clipboard

✍️ Finetuning KoGPT-Trinity to write acrostic poem | 중2 감성 N행시 빌더

KoGPT-Joong-2

🤗 Huggingface Hosted Model & Tokenizer

KoGPT-Joong-2's Acrostic Poem Generation Examples (N행시 예시)

[연세대(1)]
연민이라는 것은 양날의 검과 같다 
세기의 악연일수도..
대가는 혹독할것이다 연기의 끝은 상처다

[연세대(2)]
연약한 마음으로 강한 척하지 말고 강한 마음을 먹자
세 마디 말보다 한마디 말이 더 진정성 있어 보인다.
대시 하지 마라.
[자탄풍]
자그마하게 
탄식의 강을 건너고 
풍경의 나무를 넘어가네

KoGPT-Joong-2's Phrase Generation Examples

[너는 나의]
- 너는 나의 거짓말. 나는 너의 참말. 너를 잊었다는 나와 나를 잊었다는 너의 차이.
- 너는 나의 태양 네가 나눈 빛이면 나는 달빛에도 그을음이 피었다.
[그대 왜 내 꿈에]
- 그대 왜 내 꿈에 나오지 않는 걸까요, 내 꿈 속에서도 그대 사라지면 어쩌나요
- 그대 왜 내 꿈에 불시착했는가.

How to use KoGPT-Joong-2

from transformers import AutoTokenizer, AutoModelWithLMHead
  
tokenizer = AutoTokenizer.from_pretrained("snoop2head/KoGPT-Joong-2")
model = AutoModelWithLMHead.from_pretrained("snoop2head/KoGPT-Joong-2")

For specific inference codes, please refer to inference_finetuned_35000-step.ipynb file

Dependencies Installation

pip install -r requirements.txt

Dataset finetuned on

Pretrained Model

For the backbone model, Ko-GPT-Trinity 1.2B was used. Ko-GPT-Trinity 1.2B is a transformer model which is SK telecom's replication of the GPT-3 architecture.

References