대회 브리프
21
3
LLM / 에이전트AI 인프라 / 시스템🏆 상금 높음🎓 대학생 추천🌍 글로벌🧪 AI 트렌드🧑‍💻 개발자 추천

OpenAI Safety Sprint

Production-grade LLM safety evaluation workflow를 설계하는 글로벌 해커톤.

상금 / 보상
약 7,250만원
마감
접수 종료
주최 성격
대기업
참가 방식
1 - 4명 팀 참가
진행 방식
하이브리드
언어
영어
지원 전에 먼저 볼 것
누가 지원하기 좋은가
지원 대상과 난도를 먼저 확인하세요.
  • 1 - 4명 팀 참가
  • Global applicants welcome. Student, startup, and indie teams can apply.
무엇을 준비해야 하나
제출 채널과 형식을 먼저 챙기면 편합니다.
  • 외부 링크 접수
  • Working demo, GitHub repo, 5 minute walkthrough video
심사에서 보는 것
상위권 포인트는 이 기준에 걸립니다.
  • polished user demo 34%
  • Reliable evaluation 33%
  • concrete safety metrics 33%
왜 지금 볼 만한가

Agent, eval, guardrail 경험을 포트폴리오로 남기기 좋고, 단순 아이디어보다 구현과 측정 설계가 강하게 평가됩니다.

LLM 서비스의 안전성, 평가 체계, 제품 데모 완성도를 동시에 보여줘야 하는 상위권 지향 대회입니다.

준비 플로우

전략 읽고, 아이디어 고르고, 팀 짜기까지 여기서 바로 이어집니다.

공고를 읽고 끝나는 게 아니라, AI가 방향을 같이 잡아주고 최종 아이디어까지 골라준 뒤 팀 빌딩으로 넘깁니다.

전략 분석
0%

먼저 대회 감을 빠르게 잡는 단계입니다.

브레인스토밍
0%

3단계로 가볍게 끝나는 흐름입니다.

팀 빌딩
0%

아이디어 확정 후에만 팀 빌딩으로 넘길 수 있습니다.

현재 상태
아직 시작 전

준비 시작하기를 누르면 AI가 방향을 잡고, 아이디어 후보를 뽑아준 뒤, 최종 추천까지 이어서 보여줍니다.

조회 21상금 크게팀전 가능
AI 전략 리포트

심사 기준과 제출 요건을 기준으로, 바로 실행할 전략만 남겼습니다.

공고 내용과 겹치는 설명은 걷어내고, 상위권 설계에 직접 필요한 판단만 짧게 정리했습니다.

핵심 메모

Agent, eval, guardrail 경험을 포트폴리오로 남기기 좋고, 단순 아이디어보다 구현과 측정 설계가 강하게 평가됩니다.

LLM 서비스의 안전성, 평가 체계, 제품 데모 완성도를 동시에 보여줘야 하는 상위권 지향 대회입니다.

상위권 실행 플랜
1

단일 데모보다 반복 가능한 evaluation loop를 먼저 설계합니다.

2

실패 사례와 개선 지표를 같이 제시해 신뢰도를 확보합니다.

3

Reliable evaluation 기준을 데모에 직접 드러내기

4

Working demo, GitHub repo, 5 minute walkthrough video을 제출 직전에 다시 점검하기

다음 단계

전략을 읽었다면, 이제 3단계로 빠르게 아이디어를 정하면 됩니다.

로그인 후 시작하면 진행 상태가 자동 저장되고, 다음에 다시 와도 이어서 볼 수 있습니다.

Generated by gpt-4.1 · prompt contest-v1

지원 전에 챙길 것

실제 준비에 필요한 정보만 다시 정리했습니다.

공고 원문을 전부 읽기 전에, 제출물과 대상, 보상, 데이터셋 여부부터 빠르게 훑을 수 있게 묶었습니다.

참가 대상

Global applicants welcome. Student, startup, and indie teams can apply.

접수 항목 / 준비 서류
  • Working demo, GitHub repo, 5 minute walkthrough video
데이터셋

Teams define their own benchmark or evaluation dataset.

상금 / 보상
  • 총상금 약 7,250만원 + 멘토 오피스 아워
심사 기준

여기서 점수를 잃지 않도록, 비중이 큰 기준부터 보세요.

상위권 전략은 결국 심사 기준을 얼마나 설계에 드러내느냐에 달려 있습니다. 높은 비중부터 화면에 드러나게 준비하는 편이 좋습니다.

Reliable evaluation
33%
concrete safety metrics
33%
polished user demo
34%
polished user demo 34%Reliable evaluation 33%concrete safety metrics 33%
참고 자료
LLM / 에이전트AI 인프라 / 시스템

Agent · Safety · Evaluation · RAG

참고 사례

과거 수상작 정보는 아직 비어 있습니다. 대신 심사 기준과 보상 구조를 보고 전략을 먼저 잡는 편이 좋습니다.

전체 공고

세부 문구까지 확인할 때만 펼쳐서 보면 됩니다.

첫 화면에서는 판단에 필요한 정보만 먼저 보여주고, 전체 공고는 아래에 접어뒀습니다. 세부 조항이나 유의사항을 확인할 때 펼쳐보세요.

전체 공고 펼쳐보기

공고 본문 1개 문단이 정리돼 있습니다.

펼치기

Teams build a safety or evaluation workflow for LLM applications. The winning entries combine measurable guardrails, strong user value, and a polished product demo.