OpenAI Safety Sprint
Production-grade LLM safety evaluation workflow를 설계하는 글로벌 해커톤.
- 1 - 4명 팀 참가
- Global applicants welcome. Student, startup, and indie teams can apply.
- 외부 링크 접수
- Working demo, GitHub repo, 5 minute walkthrough video
- polished user demo 34%
- Reliable evaluation 33%
- concrete safety metrics 33%
Agent, eval, guardrail 경험을 포트폴리오로 남기기 좋고, 단순 아이디어보다 구현과 측정 설계가 강하게 평가됩니다.
LLM 서비스의 안전성, 평가 체계, 제품 데모 완성도를 동시에 보여줘야 하는 상위권 지향 대회입니다.
전략 읽고, 아이디어 고르고, 팀 짜기까지 여기서 바로 이어집니다.
공고를 읽고 끝나는 게 아니라, AI가 방향을 같이 잡아주고 최종 아이디어까지 골라준 뒤 팀 빌딩으로 넘깁니다.
먼저 대회 감을 빠르게 잡는 단계입니다.
3단계로 가볍게 끝나는 흐름입니다.
아이디어 확정 후에만 팀 빌딩으로 넘길 수 있습니다.
준비 시작하기를 누르면 AI가 방향을 잡고, 아이디어 후보를 뽑아준 뒤, 최종 추천까지 이어서 보여줍니다.
심사 기준과 제출 요건을 기준으로, 바로 실행할 전략만 남겼습니다.
공고 내용과 겹치는 설명은 걷어내고, 상위권 설계에 직접 필요한 판단만 짧게 정리했습니다.
Agent, eval, guardrail 경험을 포트폴리오로 남기기 좋고, 단순 아이디어보다 구현과 측정 설계가 강하게 평가됩니다.
LLM 서비스의 안전성, 평가 체계, 제품 데모 완성도를 동시에 보여줘야 하는 상위권 지향 대회입니다.
단일 데모보다 반복 가능한 evaluation loop를 먼저 설계합니다.
실패 사례와 개선 지표를 같이 제시해 신뢰도를 확보합니다.
Reliable evaluation 기준을 데모에 직접 드러내기
Working demo, GitHub repo, 5 minute walkthrough video을 제출 직전에 다시 점검하기
전략을 읽었다면, 이제 3단계로 빠르게 아이디어를 정하면 됩니다.
로그인 후 시작하면 진행 상태가 자동 저장되고, 다음에 다시 와도 이어서 볼 수 있습니다.
Generated by gpt-4.1 · prompt contest-v1
실제 준비에 필요한 정보만 다시 정리했습니다.
공고 원문을 전부 읽기 전에, 제출물과 대상, 보상, 데이터셋 여부부터 빠르게 훑을 수 있게 묶었습니다.
Global applicants welcome. Student, startup, and indie teams can apply.
- Working demo, GitHub repo, 5 minute walkthrough video
Teams define their own benchmark or evaluation dataset.
- 총상금 약 7,250만원 + 멘토 오피스 아워
여기서 점수를 잃지 않도록, 비중이 큰 기준부터 보세요.
상위권 전략은 결국 심사 기준을 얼마나 설계에 드러내느냐에 달려 있습니다. 높은 비중부터 화면에 드러나게 준비하는 편이 좋습니다.
Agent · Safety · Evaluation · RAG
과거 수상작 정보는 아직 비어 있습니다. 대신 심사 기준과 보상 구조를 보고 전략을 먼저 잡는 편이 좋습니다.
세부 문구까지 확인할 때만 펼쳐서 보면 됩니다.
첫 화면에서는 판단에 필요한 정보만 먼저 보여주고, 전체 공고는 아래에 접어뒀습니다. 세부 조항이나 유의사항을 확인할 때 펼쳐보세요.
전체 공고 펼쳐보기공고 본문 1개 문단이 정리돼 있습니다.
펼치기
공고 본문 1개 문단이 정리돼 있습니다.
Teams build a safety or evaluation workflow for LLM applications. The winning entries combine measurable guardrails, strong user value, and a polished product demo.