AI바라기의 인공지능
LLM : 논문리뷰 : SentBS: Sentence-level Beam Search for Controllable Summarization 본문
LLM : 논문리뷰 : SentBS: Sentence-level Beam Search for Controllable Summarization
AI바라기 2024. 12. 4. 12:45Abstract
다양한 control 관점들이 controllable text generation에서 연구되어 왔습니다. Structure-controlled summarization은 최근 유용하고 흥미로운 연구 방향으로 제시되었습니다. 그러나 현재의 structure-controlling methods는 원하는 structure를 적용하는 데 효과가 제한적입니다. 이러한 한계를 해결하기 위해, 저희는 sentence-level beam search generation method (SentBS)를 제안합니다. 이 방법에서는 generation process 전반에 걸쳐 평가를 수행하여 후속 generation에 적합한 sentence를 선택합니다. SentBS에서 sub-components로 사용될 다양한 decoding methods의 조합을 실험하고, structure-controlled dataset MReD에서 결과를 평가합니다. 실험 결과 SentBS에 대한 모든 탐색된 조합이 생성된 text와 원하는 structure 사이의 일치도를 향상시킬 수 있으며, 최상의 method은 기존 model에서 발생하는 structural discrepancies를 약 68%까지 크게 줄이는 것으로 나타났습니다.
1 Introduction
Controllable text generation은 폭넓은 응용 분야로 인해 점점 더 많은 관심을 받고 있습니다. 사용 사례에 따라 controllable generation task는 entities (Narayan et al., 2022; Fan et al., 2018a), aspects (Hayashi et al., 2021), keywords (Wang et al., 2021; He et al., 2020) 등과 같은 광범위한 control 관점에 초점을 맞출 수 있습니다. 최근 Shen et al. (2022)는 output summary의 structure를 제어하는 데 중점을 둔 새로운 control 관점에서 controllable summarization task를 위한 sentence-level labeled meta-review dataset인 MReD를 제안했습니다. Input은 동일한 연구 논문에 대한 여러 개의 review와 원하는 summary structure를 지정하는 control sequence로 구성됩니다. 예를 들어, "abstract | strength | decision"이라는 control sequence를 사용하면 생성된 output은 논문의 내용을 요약하는 sentence로 구성되고, 그 다음 strengths를 논의하는 sentence, 마지막으로 최종 decision을 제공하는 sentence로 구성되어야 합니다.
이전의 controllable summarization model은 일반적으로 BART (Lewis et al., 2020) 및 Pegasus (Zhang et al., 2020a)와 같은 pre-trained transformer architectures (Vaswani et al., 2017)에서 fine-tuned되며, control signal은 text input 또는 prompts에 병합됩니다 (Shen et al., 2022; Narayan et al., 2022; He et al., 2020; Keskar et al., 2019; Fan et al., 2018a). 이전 연구들은 주로 summary의 gold reference와의 유사성을 향상시키는 데 중점을 두었으며, controllability를 더 개선할 여지가 남아 있습니다. 특히, 최근에 공개된 MReD dataset에서 가장 성능이 좋은 model조차도 control structure를 따르지 않는 sentence를 약 29% 생성하는데, 이는 만족스럽지 못합니다.
본 논문에서는 summarization에서 structure-controllability를 향상시키는 방법을 explored합니다. 특히, 기존 summarization model에서 다음과 같은 가능한 함정을 확인했습니다. 첫째, 이러한 model은 일반적으로 generation을 standalone process로 취급하여 생성된 sequence가 control signal을 만족하는지 여부를 재고하지 않고 logits predictions에만 의존하여 계속해서 token을 생성합니다. 또한, autoregressive model은 self-attention (Vaswani et al., 2017)으로 인해 generation에서 error propagation이 발생할 수 있습니다. 따라서 이전 sequence가 잘 제어되지 않으면 후속 generation이 원하는 output에서 더 벗어날 수 있습니다. 이러한 동기에서, 확인된 문제를 해결하기 위해 Sentence-level Beam Search (SentBS) method를 제안합니다. 각 sentence를 생성하기 위해 SentBS는 먼저 여러 sentence option을 생성하고, control structure와 model의 log-likelihood를 모두 고려하여 최상의 sentence를 평가하고 선택한 다음, 다음 sentence에 대한 generation을 계속합니다.
실험 결과 SentBS는 model의 structure-controllability를 크게 향상시킬 수 있음을 보여줍니다. 특히, 최상의 설정은 MReD에서 기존 model에서 생성된 control mistakes를 최대 68%까지 제거하면서 summarization quality를 저하시키지 않습니다. Human evaluation은 SentBS가 summary의 fluency를 크게 향상시킨다는 것을 추가로 증명합니다.
요약하자면, 본 논문의 주요 contribution은 다음과 같습니다.
(1) 저희가 아는 한, structure-controllable summarization을 위해 sentence-by-sentence controlled generation을 수행한 것은 이번이 처음입니다.
(2) Control requirements와 관련하여 sentence level에서 continuous evaluation을 통해 text generation을 수행하는 SentBS를 제안합니다. 이 method는 기존 autoregressive model에 쉽게 적용할 수 있습니다.
(3) 실험 결과 SentBS는 summarization quality를 유지하면서 model의 structure controllability를 크게 향상시키는 것으로 나타났습니다.
1 Introduction 정리 노트
주제: Controllable Text Generation, 특히 Structure-Controlled Summarization
- 배경:
- Controllable text generation 분야가 주목받고 있음.
- 다양한 control 관점 존재 (entities, aspects, keywords 등)
- 최근에는 output summary의 구조를 제어하는 연구가 등장 (structure-controlled summarization)
- 문제점:
- 기존 controllable summarization 모델은 controllability가 부족함.
- 특히, 최신 MReD 데이터셋에서도 control structure를 따르지 않는 문장이 많이 생성됨 (약 29%).
- 해결책:
- 본 논문에서는 summarization의 structure-controllability를 향상시키는 방법을 제시.
- 기존 모델의 문제점:
- generation을 standalone process로 취급.
- self-attention으로 인한 error propagation 발생 가능성.
- 새로운 방법: Sentence-level Beam Search (SentBS)
- 여러 sentence option을 생성하고 평가하여 최적의 sentence를 선택.
- control structure와 model의 log-likelihood를 모두 고려.
- 결과:
- SentBS는 model의 structure-controllability를 크게 향상시킴.
- 기존 모델의 control mistakes를 최대 68%까지 제거.
- summarization quality는 유지하면서 fluency도 향상시킴.
- 주요 기여:
- structure-controllable summarization을 위한 sentence-by-sentence controlled generation 최초 수행.
- SentBS 방법 제안 (continuous evaluation을 통한 text generation).
- SentBS의 효과 실험적으로 입증 (structure controllability 향상 및 quality 유지).
핵심: SentBS를 통해 structure-controllable summarization task에서 controllability와 quality를 동시에 향상시킬 수 있음.

2 Related Work
Conditional Text Generation. Large pretrained language models은 generation task에서 인상적인 성능을 보여주었습니다 (Lewis et al., 2020; Zhang et al., 2020a). 많은 controllable generation task (Shen et al., 2022; Narayan et al., 2022; Chia et al., 2022; He et al., 2020; Cheng et al., 2020b; Keskar et al., 2019; Fan et al., 2018a)는 control signal을 source 또는 target에 병합하여 이러한 model을 활용합니다. 본 연구의 method는 controlled generation process를 sentence level로 분해한다는 점에서 이러한 접근 방식과 다르며, generation phase 동안 control signal을 명시적으로 사용합니다.
Decoding Methods. 일반적인 decoding methods에는 beam search (Meister et al., 2020; Stahlberg and Byrne, 2019; Graves, 2012), nucleus sampling (Holtzman et al., 2019), beam sampling (Caccia et al., 2019)이 포함됩니다 (자세한 내용은 Appendix A 참조). 본 연구의 SentBS method에서는 이러한 methods를 여러 sentence option을 생성하기 위한 sub-components로 사용합니다. Hopkins and Kiela (2017), Ghazvininejad et al. (2016) 및 Zhang and Lapata (2014) 또한 generation structure에 linguistic constraints를 적용하는 decoding methods에 대한 연구를 수행했습니다. 그러나 이러한 연구들 중 어느 것도 generation의 semantic content가 control requirements를 충족하는지 여부에 따라 sentence-by-sentence generation 및 evaluation strategy를 사용하지 않습니다.
번역된 내용
3 Sentence-Level Beam Search
Autoregressive model의 특성으로 인해, inference time에 이전에 생성된 token의 error는 이후 token에 영향을 미치기 쉽습니다. Structure를 더 잘 제어하기 위해, generation 중에 sentence level에서 output을 평가하고 선택하는 SentBS를 제안합니다. SentBS는 inference 동안 기존 generation model에 쉽게 적용할 수 있습니다. 본 섹션에서는 각 control label이 원하는 sentence category에 해당하는 control sequence를 SentBS가 어떻게 활용하는지 설명합니다. Task 및 dataset에 대한 자세한 내용은 4.1절을 참조하십시오.
3.1 Method Details
그림 1에서 SentBS의 generation process를 보여줍니다. Generative model, 여러 label로 구성된 control sequence 및 concatenated review text가 주어지면 SentBS는 먼저 beam search, nucleus sampling, beam sampling과 같은 여러 decoding methods를 사용하여 parallel하게 k개의 sentence option을 생성합니다 (예: Option 1-0/1-1/1-2/1-3). 각 sentence에 대해 normalized sequence likelihood와 classifier-predicted probability score (sentence가 required category에 속할 확률)를 더하여 combined score를 계산합니다 (예: Option 1-1은 -0.35의 최상의 combined score를 가짐) (classifier details는 Appendix B 참조). Combined score에 따라 상위 n개의 sentence를 선택하고 다음 sentence를 생성하기 위한 prompt로 decoder에 개별적으로 입력합니다.
n개의 prompt 각각에 대해 k개의 후속 sentence option을 생성하여 총 k · n개의 sentence를 생성합니다. 새롭게 생성된 이러한 sentence는 다음 generation을 위한 새로운 prompt를 형성하기 위해 해당 prompt 뒤에 연결되고, 다음 상위 n개의 prompt를 선택하기 위해 새로운 score가 계산됩니다. 특히, sequence likelihood score는 전체 sequence에 대해 다시 계산됩니다.
Control sequence에 필요한 모든 sentence가 생성될 때까지 동일한 generation process가 계속됩니다. 이 generation process는 log-likelihood에 따라 token을 선택하는 것뿐만 아니라 control requirements와 sequence likelihood를 모두 기반으로 sentence level에서 선택을 수행한다는 점을 제외하면 beam search와 유사합니다.
3.2 Method Applications
SentBS는 sentence level에서 structural requirements를 평가하지만, 각 control label이 동일한 category의 하나 이상의 sentence에 해당하는 segment-level control method로 쉽게 확장할 수 있습니다. 이 경우, 처음 생성된 sentence만 명시적인 label을 가지는 반면, 후속 sentence는 이전 sentence와 동일한 label을 갖거나 control sequence의 다음 label을 가질 수 있습니다. 따라서 첫 번째 sentence를 생성한 후, 두 개의 허용된 label에 해당하는 probabilities를 비교하여 후속 sentence의 generation에 SentBS를 다시 적용할 수 있습니다. 예를 들어, "abstract | strength | decision"이라는 control sequence가 주어지면 첫 번째 "abstract" sentence를 생성한 후 두 번째 sentence에 대한 "abstract" 및 "strength"의 classification score를 확인하고 더 높은 probability를 가진 label을 할당합니다. 따라서 두 번째 sentence에 대한 각 sentence option에는 생성된 content에 따라 "abstract" 또는 "strength" label이 할당됩니다. 같은 방식으로 model이 stop signal (즉, "eos" token)을 제공할 때까지 후속 sentence를 생성할 수 있습니다.
위의 logic에 따라 control requirements를 sentence level에서 평가할 수 있는 한 SentBS를 paragraph level의 다른 controlled generation task (예: style transfer)로 further 확장할 수 있습니다. 예를 들어, non-formal text를 formal text로 변환하기 위해 sequence log-likelihood와 formality degree의 combined score에 따라 각 sentence의 점수를 매길 수 있습니다. 그럼에도 불구하고 이는 본 논문의 범위를 벗어나며 이러한 application에 대한 조사는 향후 연구로 남겨둡니다.
