인간 피드백을 통한 강화 학습
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.
1. 개요
인간 피드백을 통한 강화 학습(RLHF)은 작업 명세가 어렵지만 판단이 쉬운 경우, 인간의 피드백을 활용하여 모델을 최적화하는 기술이다. 이는 챗봇, 텍스트 요약, 자연어 이해 등 다양한 분야에 적용되며, 특히 OpenAI의 ChatGPT, DeepMind의 Sparrow 등이 RLHF로 훈련된 언어 모델의 예시이다. RLHF는 보상 모델과 정책 학습을 통해 이루어지며, 인간의 선호도를 반영하여 모델의 강건성과 탐색 능력을 향상시킨다. 하지만, 데이터 수집의 어려움, 인간 피드백의 질에 따른 편향 문제, 모델의 과적합, 시스템 조작 가능성 등의 한계가 존재한다. RLAIF, DPO와 같은 대안적인 방법들도 연구되고 있다.
더 읽어볼만한 페이지
- 강화 학습 - 시간차 학습
시간차 학습은 미래 보상 예측과 현재 가치 추정치 업데이트를 통해 학습하는 강화 학습 방법으로, 체커 프로그램 개발과 TD-Lambda 알고리즘, TD-Gammon 개발을 거쳐 인공지능, 로보틱스, 추천 시스템, 금융 공학 등 다양한 분야에 응용된다. - 강화 학습 - 심층 강화 학습
심층 강화 학습은 심층 신경망을 활용하여 정책이나 가치 함수를 표현하는 강화 학습 방법으로, 딥 러닝 혁명 이후 정책, 가치, Q 함수 학습에 대한 관심이 높아져 아타리 게임 성공과 알파고의 바둑 승리 등을 통해 발전했으며, 로봇 공학, 자율 주행 등 다양한 분야에 적용되고 있다. - 언어 모델 - 환각 (인공지능)
인공지능 환각은 인공지능이 사실이 아닌 정보를 사실처럼 생성하는 현상으로, 대규모 언어 모델의 부정확한 정보 생성 문제를 설명하기 위해 사용되며, 데이터 불일치, 모델 오류, 훈련 데이터 부족 등이 원인으로 발생하여 다양한 완화 기술이 연구되고 있다. - 언어 모델 - N-그램
N-그램은 텍스트나 음성 데이터에서 나타나는 n개의 항목 시퀀스로, 언어 모델링, 텍스트 분석, DNA 서열 분석 등에서 데이터의 특성을 파악하고 예측하는 데 활용된다. - 기계 학습 - 비지도 학습
비지도 학습은 레이블이 없는 데이터를 통해 패턴을 발견하고 데이터 구조를 파악하는 것을 목표로 하며, 주성분 분석, 군집 분석, 차원 축소 등의 방법을 사용한다. - 기계 학습 - 지도 학습
지도 학습은 레이블된 데이터를 사용하여 입력 데이터와 출력 레이블 간의 관계를 학습하는 기계 학습 분야로, 예측 모델 생성, 알고리즘 선택, 모델 최적화, 정확도 평가 단계를 거치며, 회귀 및 분류 문제에 적용되고 다양한 확장 기법과 성능 평가 방법을 활용한다.
인간 피드백을 통한 강화 학습 | |
---|---|
강화 학습 | |
종류 | 강화 학습 |
인간 피드백을 통한 강화 학습 (RLHF) | |
개요 | 인간 피드백을 활용하여 강화 학습 에이전트를 훈련하는 방법 |
주요 목표 | 에이전트의 행동을 인간의 선호도에 맞추는 것 복잡한 목표나 보상을 명확하게 정의하기 어려운 상황에서 효과적 |
작동 방식 | 초기 모델 훈련: 기존의 지도 학습 또는 강화 학습 방법 사용 피드백 수집: 인간이 에이전트의 행동에 대한 평가를 제공 보상 모델 훈련: 인간 피드백을 기반으로 보상 함수를 학습 강화 학습 훈련: 학습된 보상 함수를 사용하여 에이전트 정책을 최적화 |
장점 | 인간의 선호도 반영 명시적인 보상 함수 설계의 어려움 극복 |
단점 | 피드백 수집에 대한 의존성 피드백 품질 문제 피드백 제공의 시간 및 비용 |
활용 분야 | 로봇 제어 자연어 처리 추천 시스템 게임 인공지능 대화형 인공지능 |
핵심 알고리즘 | 근사 정책 최적화 (PPO) |
관련 연구 및 발전 | |
주요 연구 | 인간 선호도 기반 언어 모델 미세 조정 (Fine-Tuning Language Models from Human Preferences) Illustrating Reinforcement Learning from Human Feedback (RLHF) |
기술 발전 | 대규모 언어 모델(LLM)과의 결합 피드백 효율성 향상 연구 안전성 및 윤리적 고려 사항 연구 |
2. 배경 및 동기
모델을 인간의 피드백에 기반하여 최적화하는 것은 작업 자체를 명세화하기 어렵지만 판단하기 쉬울 때 바람직하다.[35] 예를 들어, 유용하고 안전한 텍스트(예: 편향, 유독성 또는 기타 유해한 콘텐츠가 없는)를 생성하는 모델을 훈련시키고자 할 수 있다. 사람이 유해하고 무해한 텍스트의 예시를 수동으로 만드는 것은 어렵고 시간이 많이 걸리지만, 인간은 AI가 생성한 서로 다른 텍스트의 유해성을 빠르게 평가하고 비교하는 데 능숙하다. 따라서 더 실용적인 목표는 모델이 이러한 유형의 인간 피드백을 사용하여 텍스트 생성을 개선하도록 하는 것이다.[6]
인간 피드백은 일반적으로 인간에게 에이전트 행동의 인스턴스 순위를 매기도록 요청하여 수집된다.[14][15][16] 이러한 순위는 엘로 등급 시스템을 사용하여 출력 점수를 매기는 데 사용될 수 있다.[3] 출력 순위 매기기는 가장 널리 채택된 피드백 형태이지만, 최근 연구에서는 숫자 피드백, 자연어 피드백 등 다른 형태를 탐구했다.[17]
RLHF(인간 피드백을 통한 강화 학습)에서는 보상 모델과 강화 학습(RL) 정책, 두 가지 모델을 학습한다. 이 두 모델은 일반적으로 사전 학습된 자기회귀 언어 모델을 사용하여 초기화된다. 보상 모델은 인간의 선호도를 반영하여 어떤 행동이 더 나은 결과를 낳는지 판단하도록 훈련된다.
모델 훈련에 인간의 피드백을 통합하는 것의 명확한 이점에도 불구하고, 강화 학습을 활용하는 것을 포함한 이전의 노력은 상당한 어려움에 직면했다. 대부분의 시도는 좁고 일반화하기 어려워 더 복잡한 작업에서 실패하거나,[7][8][9][10] 희소하거나(특정 정보가 부족하고 한 번에 많은 양의 텍스트와 관련됨) 잡음이 많은(유사한 출력에 대해 일관되지 않게 보상함) 보상 함수로부터 학습하는 데 어려움을 겪었다.[11][12]
RLHF는 강화 학습을 위해 인간의 피드백을 사용하는 최초의 성공적인 방법은 아니었지만 가장 널리 사용되는 방법 중 하나이다. RLHF의 기반은 실용적인 양의 인간 피드백으로부터 학습하기 위한 일반적인 알고리즘을 만들려는 시도로 소개되었다.[35][3] 오늘날 사용되는 알고리즘은 인간의 피드백에 기반한 텍스트 연속 또는 요약을 향상시키는 논문에서 오픈AI에 의해 소개되었으며, 동일한 방법이 InstructGPT 논문에서 재사용되면서 인기를 얻기 시작했다.[2][23][14] RLHF는 또한 RL 에이전트의 강건성과 탐색 능력을 향상시키는 것으로 나타났는데, 이는 최고의 보상을 찾아 환경을 효율적으로 탐색하는 데 더 능숙한 최적화 프로세스로 이어졌다.[13]
3. 인간 피드백 수집
인간 피드백을 통한 강화 학습(RLHF)의 초기 동기 중 하나는 효과를 보기 위해 상대적으로 적은 양의 비교 데이터만 필요하다는 점이었다.[35] 소량의 데이터가 더 많은 데이터와 비슷한 결과를 가져올 수 있다는 것이 입증되었다.[23] 하지만, 알고리즘 편향을 피하기 위해서는 더 크고 다양한 양의 데이터가 중요할 수 있다.[14]
4. 훈련
보상 모델은 인간 주석자가 작성한 프롬프트와 보조자의 응답 쌍으로 구성된 데이터 세트를 통해 지도 방식으로 학습된다. 이는 언어에 대한 이해를 바탕으로 초기화하고, 인간의 선호도 학습에 집중하여 훈련 속도를 높인다.[14][23]
인간 피드백 정책은 사전 학습된 모델을 미세 조정하여, 인간 피드백에서 파생된 보상을 기반으로 매개변수를 조정한다. 이를 통해 기존의 정렬되지 않은 모델을 인간의 선호도에 더 잘 맞춘다.
4. 1. 보상 모델 학습
보상 모델은 사전 학습된 언어 모델의 최종 계층을 무작위로 초기화된 회귀 헤드로 대체하여 학습한다. 이러한 변화는 모델을 어휘에 대한 원래 분류 작업에서 주어진 프롬프트와 응답의 점수에 해당하는 숫자를 출력하는 것으로 전환한다. 이 모델은 인간 선호도 비교 데이터에 대해 학습된다. 특히, 인간의 실제 평점에 더 가까운 예측을 하도록 유도하는 다음 교차 엔트로피 손실 함수를 최소화하도록 학습된다.[14]
:
여기서 는 라벨러가 순위를 매긴 응답의 수이고, 는 프롬프트 와 완성 에 대한 보상 모델의 출력이고, 는 보다 선호되는 완성이고, 는 시그모이드 함수를 나타내고, 는 기댓값을 나타낸다.[14] 이 손실 함수는 본질적으로 보상 모델의 예측과 인간이 내린 결정 간의 차이를 측정한다. 목표는 이 방정식으로 측정된 차이를 최소화하여 모델의 추측을 인간의 선호도에 최대한 가깝게 만드는 것이다. 쌍방향 비교만 있는 경우 요소는 생략된다.[23] 그렇지 않으면 각 프롬프트의 모든 비교가 단일 배치로 학습에 사용된다.[14] 학습 후 모델의 출력은 참조 완성의 평균 점수가 0이 되도록 정규화된다.[23]
4. 2. 정책 학습
보상 모델의 출력은 강화 학습(RL)을 사용하여 최대화할 보상으로 사용될 수 있다.[23] 환경은 데이터 세트에서 프롬프트를 무작위로 정책에 제시하고 이에 대한 응답을 기대하며, 에이전트가 다양한 프롬프트를 이해하고 적절한 응답을 생성해야 하는 실제 시나리오를 시뮬레이션한다. 매개변수 를 가진 학습된 RL 정책을 로 나타내면 다음 목적 함수를 정의할 수 있다.
여기서 는 훈련 분포이고 는 이전에 학습된 정렬되지 않은 모델이다. 상수 는 KL 페널티 항의 강도를 조정하는 데 사용된다. 이 페널티는 정책과 정렬되지 않은 모델의 출력 간의 토큰 단위로 적용된다. 그 목적은 정책을 과도하게 미세 조정하는 것을 방지하여 훈련 프로세스가 새로운 훈련 데이터에 대해 모델을 과도하게 특수화하지 않도록 하는 것이다.[14][23] 이 KL 항은 미세 조정되는 모델과 초기 지도 학습 모델 간의 KL 발산(분포 간의 통계적 거리 측정)을 처벌하여 작동한다. 적절한 를 선택하면 새로운 데이터로부터 학습하는 것과 초기 모델의 유용한 정보를 유지하는 것을 균형 있게 조정하여 새로운 데이터에 너무 가깝게 맞추는 것을 방지하여 일반화를 증가시킬 수 있다. 초기 모델의 출력과 너무 다르게 생성되는 것을 방지하는 것 외에도 KL 항을 포함하는 두 번째 동기는 추가 엔트로피를 장려하여 모델이 단일 모드로 붕괴되는 것을 방지함으로써 정책이 환경을 더 탐색할 수 있도록 하는 것이다.[23]
정책이 사전 훈련 기울기를 통합할 수 있도록 하는 항이 일반적으로 목적 함수에 추가된다. 이 항은 텍스트 완성이라는 원래의 사전 훈련 작업을 통합하여 인간의 피드백을 기반으로 새로운 작업을 학습하는 동안 모델이 초기 언어 이해 능력을 잃지 않도록 한다. 최종 목적 함수는 다음과 같이 작성된다.
여기서 는 이 추가 항의 강도를 제어하고 은 원래 사전 훈련 텍스트 분포이다.[14] 이 목적 함수는 근접 정책 최적화 알고리즘을 사용하여 정책을 직접 학습하는 데 사용할 수 있다.[14][23]
5. 응용
RLHF는 대화형 에이전트, 텍스트 요약, 자연어 이해 등 다양한 자연어 처리(NLP) 분야에 적용되어 왔다.[22][23] 일반적인 강화 학습은 인간의 가치 또는 선호도가 포함된 복잡한 작업을 다룰 때 보상을 정의하거나 측정하기 어렵기 때문에 NLP 작업에 적용하기 어렵다.[35] 컴퓨터 비전에서 RLHF는 텍스트-이미지 모델을 정렬하는 데에도 사용되었다.
RLHF는 비디오 게임 봇 개발 및 시뮬레이션된 로보틱스와 같은 다른 영역에도 적용되었다.[35] 예를 들어, 오픈AI와 딥마인드는 인간의 선호도를 기반으로 아타리 게임을 플레이하도록 에이전트를 훈련시켰다.[35][36]
5. 1. 자연어 처리 (NLP)
RLHF는 특히 언어 모델을 통해 보상 모델에서 미리 선호도를 포착하여 인간의 선호도에 맞춰지는 응답을 제공하도록 자연어 처리(NLP) 모델을 유도할 수 있다.[14][24] 이는 더욱 관련성 있는 응답을 생성하고 부적절하거나 무관한 질문을 거부할 수 있는 모델을 만든다. RLHF로 훈련된 언어 모델의 몇 가지 주목할 만한 예로는 오픈AI의 챗GPT(그리고 그 전신인 인스트럭트GPT)[15][25][26], 딥마인드의 스패로우[27][28][29], 구글의 제미니[30], 그리고 앤스로픽의 클로드가 있다.[31]5. 2. 컴퓨터 비전
RLHF는 텍스트-이미지 모델을 정렬하는 데 사용되었다. RLHF를 성공적으로 활용한 연구에 따르면, 학습된 정책이 정렬되지 않은 모델에서 너무 멀리 벗어나지 않도록 RLHF에 KL 규제를 사용하면 보상 모델에 대한 과적합을 줄여 훈련 과정을 안정화하는 데 도움이 된다. KL 규제를 사용하여 훈련된 모델의 최종 이미지 출력은 규제 없이 훈련된 모델의 이미지보다 품질이 훨씬 높았다.[32][33] 다른 방법들은 강화 학습을 사용하지 않고 보상을 극대화하는 직접적인 훈련을 통해 피드백을 통합하려 했지만, RLHF에서 사용되는 온라인 샘플 생성과 이전 모델에 대한 KL 규제(보상 함수에 대한 과적합 완화) 덕분에 RLHF 기반 접근 방식이 더 나은 성능을 보일 가능성이 높다고 인정했다.[34]5. 3. 기타 응용 분야
RLHF는 초기에는 비디오 게임 봇 개발 및 시뮬레이션된 로보틱스 작업과 같은 영역에 적용되었다.[35] 예를 들어, 오픈AI와 딥마인드는 인간의 선호도를 기반으로 아타리 게임을 플레이하도록 에이전트를 훈련시켰다.[35][36] 이러한 봇의 훈련에서 보상 함수는 일반적으로 게임 내 점수와 같은 지표를 사용한다. 반면 RLHF에서는 인간에게 주기적으로 에이전트의 게임 내 행동 클립 두 개를 제시하고 어느 쪽이 더 "좋아 보이는지" 결정하게 한다. 이러한 접근 방식은 에이전트의 점수에 접근하지 않고도 경쟁적인 수준으로 수행하도록 에이전트를 훈련시킬 수 있다. 실제로 인간의 선호도에는 성능 기반 지표보다 더 유용한 정보가 포함될 수 있기 때문에 RLHF가 때로는 점수 지표가 있는 강화학습(RL)보다 우수한 성능을 낼 수 있음이 입증되었다.[35][36] 에이전트는 테스트된 많은 환경에서 강력한 성능을 달성했으며, 종종 인간의 성능을 능가했다.[37]6. 한계
RLHF는 인간 피드백 수집, 보상 모델 학습, 정책 최적화에 어려움을 겪는다.[38] 비지도 학습이나 자가 지도 학습과 같은 기법에 비해 데이터 수집의 확장성이 떨어지고 비용이 더 많이 든다. 또한, 작업, 인터페이스, 개인의 선호도와 편향에 따라 인간 피드백의 품질과 일관성이 달라질 수 있다.[14][39]
RLHF의 효과는 인간 피드백의 질에 달려있다. 예를 들어, 피드백이 공정하지 않거나 일관성이 없거나 잘못된 경우, 모델이 특정 집단을 다른 집단보다 선호하는 편향이 생길 수 있다.[3][40] 모델이 과적합되어 특정 피드백 예시를 학습하는 대신 일반화를 배우지 못할 위험도 있다. 예를 들어, 특정 인구 통계 집단의 피드백이 주를 이루면, 모델은 의도된 정렬과 함께 특징이나 노이즈를 학습할 수 있다. 받은 특정 피드백(즉, 그 안에 있는 편향)에 과도하게 정렬하면 새로운 맥락에서 또는 다른 집단이 사용할 때 모델의 성능이 저하될 수 있다.[41] 단일 보상 함수가 항상 다양한 사람들의 의견을 나타낼 수 있는 것은 아니며, 대표적인 표본이 있더라도 상반되는 견해와 선호도로 인해 보상 모델이 다수의 의견을 선호하여 소외된 집단에게 불이익을 줄 수 있다.[38]
일반적인 강화 학습과 마찬가지로, 모델이 성능을 진정으로 향상시키는 대신 피드백 과정을 조작하거나 시스템을 조작하여 더 높은 보상을 얻는 것을 학습할 위험이 있다.[42] RLHF의 경우, 모델은 긍정적으로 평가되는 것에 대해 보상받고 실제로 좋은 것에 대해 보상받는 것이 아니라는 사실을 이용할 수 있으며, 이는 설득과 조작을 학습하게 할 수 있다. 예를 들어, 모델은 정확하지 않더라도 명백한 자신감이 더 높은 보상을 받는다는 것을 학습할 수 있다. 이러한 행동은 제어되지 않으면 인센티브를 받을 뿐만 아니라 모델이 오도할 가능성으로 인해 심각한 배포 문제를 야기할 수 있다. 연구에 따르면 인간은 복잡한 작업에서 LLM 출력의 실수를 식별하는 데 능숙하지 않으므로, 자신감은 있지만 잘못된 텍스트를 생성하도록 학습된 모델은 배포 시 심각한 문제를 야기할 수 있다.[38]
7. 대안
인간 피드백을 통한 강화 학습(RLHF)은 작업 자체를 명확하게 정의하기는 어렵지만 판단하기는 쉬울 때, 모델을 인간의 피드백에 기반하여 최적화하는 방법이다. 예를 들어, 편향이나 유해한 콘텐츠가 없는 안전하고 유용한 텍스트를 생성하는 모델을 훈련할 때, 사람이 직접 유해하거나 무해한 텍스트 예시를 만드는 것은 어렵지만, AI가 생성한 텍스트의 유해성을 평가하고 비교하는 것은 상대적으로 쉽다. 따라서 이러한 인간 피드백을 활용하여 모델의 텍스트 생성을 개선하는 것이 더 실용적이다.[6]
RLHF는 강화 학습을 위해 인간의 피드백을 사용하는 최초의 성공적인 방법은 아니었지만, 가장 널리 사용되는 방법 중 하나이며, 실용적인 양의 인간 피드백으로부터 학습하기 위한 일반적인 알고리즘을 만들려는 시도로 소개되었다.[35][3] 오픈AI가 인간의 피드백에 기반한 텍스트 연속 또는 요약을 향상시키는 논문에서 오늘날 사용되는 알고리즘을 소개하였고, InstructGPT 논문에서 재사용되면서 인기를 얻기 시작했다.[2][23][14] RLHF는 또한 RL 에이전트의 강건성과 탐색 능력을 향상시키는 것으로 나타났다.[13]
RLHF의 대안으로는 다음과 같은 방법들이 있다.
- AI 피드백으로부터의 강화 학습 (RLAIF): 선호도 모델을 훈련하지만, 피드백은 자동으로 생성된다.
- 직접 선호도 최적화 (DPO): 인간의 선호도에 따라 주요 모델을 직접 조정하여 프로세스를 단순화한다.
7. 1. AI 피드백으로부터의 강화 학습 (RLAIF)
RLHF와 마찬가지로, AI 피드백으로부터의 강화 학습(RLAIF)은 선호도 모델을 훈련하는 데 의존하지만, 피드백은 자동으로 생성된다.[43] 이것은 특히 앤스로픽(Anthropic)의 헌법적 AI에서 사용되는데, 여기서 AI 피드백은 헌법의 원칙 준수 여부를 기반으로 한다.[44]7. 2. 직접 선호도 최적화 (DPO)
직접 선호도 최적화(Direct Preference Optimization, DPO)는 인간의 선호도를 학습하기 위한 RLHF(강화학습 기반 인간 피드백)의 대안으로 제안되었다. DPO는 RLHF와 마찬가지로 인간이 생성한 선호도 데이터를 사용하여 사전 훈련된 대규모 언어 모델을 정렬하는 데 적용되었다.[45] RLHF는 좋은 결과가 무엇인지 이해하기 위해 먼저 별도의 중간 모델을 훈련한 다음 주요 모델에 그러한 결과를 달성하는 방법을 가르치는 반면, DPO는 사람들의 선호도에 따라 주요 모델을 직접 조정하여 프로세스를 단순화한다. 변수 변경을 사용하여 "선호도 손실"을 정책의 함수로 직접 정의하고, 이 손실을 사용하여 모델을 미세 조정하여 별도의 단계 없이 인간의 선호도를 이해하고 우선순위를 지정하도록 돕는다. 본질적으로 이 접근 방식은 긍정적이거나 부정적인 인간의 피드백을 기반으로 모델의 결정을 직접 형성한다.DPO는 RLHF보다 구현하고 훈련하기가 간단하며, 비슷하거나 때로는 더 나은 결과를 생성하는 것으로 나타났다.[45] 그럼에도 불구하고, RLHF는 일부 데이터 세트(예: 진실성을 측정하려는 벤치마크)에서 DPO보다 더 나은 성능을 보이는 것으로 나타났다.[46] 따라서 방법 선택은 인간 선호도 데이터의 특징과 작업의 성격에 따라 달라질 수 있다.[46]
참조
[1]
서적
Artificial intelligence: a modern approach
Pearson
2016
[2]
arXiv
Fine-Tuning Language Models from Human Preferences
2019
[3]
웹사이트
Illustrating Reinforcement Learning from Human Feedback (RLHF)
https://huggingface.[...]
2023-03-04
[4]
arXiv
Proximal Policy Optimization Algorithms
2017
[5]
arXiv
Proximal Policy Optimization and its Dynamic Version for Sequence Generation
2018
[6]
arXiv
Secrets of RLHF in Large Language Models Part I: PPO
2023
[7]
서적
Social Robotics
Springer International Publishing
2024-02-26
[8]
서적
Machine Learning and Knowledge Discovery in Databases
Springer
2024-02-26
[9]
논문
A Bayesian Approach for Policy Learning from Trajectory Preference Queries
https://papers.nips.[...]
Curran Associates, Inc.
2024-02-26
[10]
논문
Programming by Feedback
https://proceedings.[...]
PMLR
2024-02-26
[11]
논문
Deep TAMER: Interactive Agent Shaping in High-Dimensional State Spaces
2018-04-25
[12]
논문
Interactive learning from policy-dependent human feedback
https://dl.acm.org/d[...]
JMLR.org
2017-08-06
[13]
arXiv
Training a Helpful and Harmless Assistant with Reinforcement Learning from Human Feedback
2022
[14]
학회
Training language models to follow instructions with human feedback
https://openreview.n[...]
2022-10-31
[15]
웹사이트
OpenAI invites everyone to test ChatGPT, a new AI-powered chatbot—with amusing results
https://arstechnica.[...]
2022-12-01
[16]
웹사이트
Getting stakeholder engagement right in responsible AI
https://venturebeat.[...]
2023-02-05
[17]
arXiv
Bridging the Gap: A Survey on Integrating (Human) Feedback for Natural Language Generation
2023
[18]
논문
Policy Finetuning: Bridging Sample-Efficient Offline and Online Reinforcement Learning
https://proceedings.[...]
Curran Associates, Inc.
2024-03-10
[19]
논문
Dueling RL: Reinforcement Learning with Trajectory Preferences
https://proceedings.[...]
PMLR
2023-03-03
[20]
논문
Principled Reinforcement Learning with Human Feedback from Pairwise or K-wise Comparisons
https://proceedings.[...]
PMLR
2023-07-03
[21]
논문
Reinforcement learning with Human Feedback: Learning Dynamic Choices via Pessimism
https://openreview.n[...]
2024-03-10
[22]
arXiv
Training language models to follow instructions with human feedback
2022
[23]
논문
Learning to summarize with human feedback
https://proceedings.[...]
2020
[24]
웹사이트
Can AI really be protected from text-based attacks?
https://techcrunch.c[...]
2023-02-24
[25]
웹사이트
How OpenAI is trying to make ChatGPT safer and less biased
https://www.technolo[...]
2023-03-04
[26]
웹사이트
ChatGPT is OpenAI's latest fix for GPT-3. It's slick but still spews nonsense
https://www.technolo[...]
2023-03-04
[27]
arXiv
Improving alignment of dialogue agents via targeted human judgements
2022
[28]
웹사이트
Why DeepMind isn't deploying its new AI chatbot — and what it means for responsible AI
https://venturebeat.[...]
2022-09-23
[29]
웹사이트
Building safer dialogue agents
https://www.deepmind[...]
2023-03-04
[30]
웹사이트
Introducing Gemini: our largest and most capable AI model
https://blog.google/[...]
2023-12-06
[31]
잡지
What to Know About Claude 2, Anthropic's Rival to ChatGPT
https://time.com/629[...]
2023-07-18
[32]
논문
DPOK: Reinforcement Learning for Fine-tuning Text-to-Image Diffusion Models
https://openreview.n[...]
2024-03-01
[33]
논문
ImageReward: Learning and Evaluating Human Preferences for Text-to-Image Generation
https://proceedings.[...]
2024-03-01
[34]
arXiv
Aligning Text-to-Image Models using Human Feedback
2023
[35]
웹사이트
Learning from human preferences
https://openai.com/r[...]
2023-03-04
[36]
웹사이트
Learning through human feedback
https://www.deepmind[...]
2017-06-12
[37]
논문
Deep Reinforcement Learning from Human Preferences
https://papers.nips.[...]
Curran Associates, Inc.
2017
[38]
논문
Open Problems and Fundamental Limitations of Reinforcement Learning from Human Feedback
https://openreview.n[...]
2023-09-18
[39]
웹사이트
Thoughts on the impact of RLHF research
https://www.alignmen[...]
2023-01-25
[40]
논문
AI bias: exploring discriminatory algorithmic decision-making models and the application of possible machine-centric solutions adapted from the pharmaceutical industry
AI Ethics
2022
[41]
웹사이트
Understanding deep learning requires rethinking generalization
https://openreview.n[...]
International Conference on Learning Representations
2016-11-04
[42]
웹사이트
Faulty reward functions in the wild
https://openai.com/r[...]
OpenAI
2016-12-21
[43]
웹사이트
Reinforcement Learning Craves Less Human, More AI
https://analyticsind[...]
2023-10-06
[44]
웹사이트
AI gains "values" with Anthropic's new Constitutional AI chatbot approach
https://arstechnica.[...]
2023-05-09
[45]
논문
Direct Preference Optimization: Your Language Model is Secretly a Reward Model
2023
[46]
논문
HelpSteer: Multi-attribute Helpfulness Dataset for SteerLM
2023
[47]
논문
Fine-Tuning Language Models from Human Preferences
2019
[48]
웹사이트
Illustrating Reinforcement Learning from Human Feedback (RLHF)
https://huggingface.[...]
[49]
논문
Interactive learning from policy-dependent human feedback
https://dl.acm.org/d[...]
JMLR.org
2017-08-06
[49]
논문
Deep TAMER: Interactive Agent Shaping in High-Dimensional State Spaces
2018-04-25
[49]
논문
Training a Helpful and Harmless Assistant with Reinforcement Learning from Human Feedback
2022
[50]
논문
Training language models to follow instructions with human feedback
https://openreview.n[...]
2022-10-31
[51]
웹사이트
OpenAI invites everyone to test ChatGPT, a new AI-powered chatbot—with amusing results
https://arstechnica.[...]
2022-12-01
[52]
웹사이트
Getting stakeholder engagement right in responsible AI
https://venturebeat.[...]
2023-02-05
[53]
논문
Bridging the Gap: A Survey on Integrating (Human) Feedback for Natural Language Generation
[54]
논문
Training language models to follow instructions with human feedback
2022
[54]
논문
Learning to summarize with human feedback
https://proceedings.[...]
2020
[55]
웹사이트
Can AI really be protected from text-based attacks?
https://techcrunch.c[...]
2023-02-24
[56]
웹사이트
Council Post: Is Bigger Better? Why The ChatGPT Vs. GPT-3 Vs. GPT-4 'Battle' Is Just A Family Chat
https://www.forbes.c[...]
[56]
웹사이트
How OpenAI is trying to make ChatGPT safer and less biased
https://www.technolo[...]
[56]
웹사이트
ChatGPT is OpenAI's latest fix for GPT-3. It's slick but still spews nonsense
https://www.technolo[...]
[57]
논문
Improving alignment of dialogue agents via targeted human judgements
2022
[57]
웹사이트
Why DeepMind isn't deploying its new AI chatbot — and what it means for responsible AI
https://venturebeat.[...]
[57]
웹사이트
Building safer dialogue agents
https://www.deepmind[...]
[58]
웹사이트
Learning from human preferences
https://openai.com/r[...]
[59]
웹사이트
Learning through human feedback
https://www.deepmind[...]
[60]
논문
Deep Reinforcement Learning from Human Preferences
https://papers.nips.[...]
Curran Associates, Inc.
2017
[61]
웹사이트
Thoughts on the impact of RLHF research
https://www.alignmen[...]
[62]
웹사이트
Illustrating Reinforcement Learning from Human Feedback (RLHF)
https://huggingface.[...]
[63]
뉴스
AI bias: exploring discriminatory algorithmic decision-making models and the application of possible machine-centric solutions adapted from the pharmaceutical industry
https://link.springe[...]
AI Ethics
2022
[64]
웹사이트
Training Language Models to Follow Instructions with Human Feedback
https://www.cs.princ[...]
Princeton
[65]
웹사이트
What is overfitting?
https://www.ibm.com/[...]
[66]
웹사이트
Understanding deep learning requires rethinking generalization
https://openreview.n[...]
International Conference on Learning Representations
[67]
웹사이트
Faulty reward functions in the wild
https://openai.com/r[...]
OpenAI
본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.
문의하기 : help@durumis.com