구글 검색 결과에서 AI가 작성한 콘텐츠를 실시간으로 감지하고 표시하는 크롬 확장 프로그램입니다.
👉 썸네일을 클릭하면 유튜브 영상으로 이동합니다.
server/ : a. flask 서버 실행(localhost:5000) b. 클라이언트로부터 url을 전달받아서 해당 웹페이지 본문 텍스트 추출 c. 추출한 텍스트를 AI 모델에게 전달하고, 이후 AI 모델로 부터 LLM이 작성한 글일 확률과 판단 근거를 json형태로 클라이언트에게 반환.
chrome-extension/ : a. content.js가 구글 검색 결과 페이지의 링크들을 감지 b. background.js를 통해 각 링크의 URL을 서버(localhost:5000)로 전송 c. 서버로부터 받은 AI 확률 점수를 바탕으로 검색 결과 옆에 시각적 표시(태그) 추가: - 녹색(0-40%): AI 작성 가능성 낮음 - 주황색(41-70%): AI 작성 가능성 중간 - 빨간색(71-100%): AI 작성 가능성 높음
- 구글 검색 결과에 AI 작성 확률을 실시간으로 표시
- 다중 AI 모델 지원 (Gemini, GPT, Local LLM)
- 자연스러운 한국어 분석 결과 제공
- 시각적 피드백 (색상 코드로 위험도 표시)
- 측면 패널에 AI 작성 확률별로 페이지 조회 기능 제공
- Python 3.10 이상
- Chrome 브라우저
- (선택) Ollama (로컬 AI 모델 사용시)
# 가상환경 생성 및 활성화
python -m venv .venv
source .venv/bin/activate # Windows: .venv\Scripts\activate
# 의존성 설치
pip install -r server/requirements.txt
flask --app app run
#또는 run.sh 실행
chmod +x run.sh
./run.sh
server/.env 파일 생성:
# Gemini AI 사용시
GEMINI_API_KEY=your_gemini_api_key
# GPT 사용시
OPENAI_API_KEY=your_openai_api_key- Chrome 브라우저에서
chrome://extensions열기 - 개발자 모드 활성화
- "압축해제된 확장 프로그램을 로드합니다" 클릭
chrome-extension폴더 선택
서버 디렉토리에서:
cd server
flask --app app run기본적으로 http://localhost:5000 에서 실행됩니다.
server/app.py의 MODEL 변수를 수정하여 사용할 AI 모델을 선택할 수 있습니다:
MODEL = 'gemini' # Gemini AI 사용 (기본값)
MODEL = 'gpt' # GPT-3.5 사용
MODEL = 'local' # Local LLM 사용- API 키 필요
- 빠른 응답 속도
.env파일에GEMINI_API_KEY설정 필요
- OpenAI API 키 필요
- 높은 정확도
.env파일에OPENAI_API_KEY설정 필요
- API 키 불필요
- 완전한 프라이버시
- Ollama 설치 및 모델 다운로드 필요:
# Ollama 설치
curl -fsSL https://ollama.com/install.sh | sh# Gemma3 모델
ollama pull gemma3mv model-Q5_K_M.gguf ~/.ollama/models/텍스트의 AI 작성 확률을 분석합니다.
요청:
{
"url": "https://example.com/article"
}응답:
{
"url": "https://example.com/article",
"ai_score": 85,
"reason": "반복적인 문구와 형식적인 문체가 뚜렷함"
}인터넷에서 수집한 사람 작성 문서와 AI 작성 문서를 대상으로 각 모델의 응답 시간과 정확도 평가 결과
| 모델 | 평균 응답 시간(초) | 정확도(%) |
|---|---|---|
| local_ai_score | 6.53 | 87.80 |
| gpt_ai_score | 9.52 | 90.00 |
| gpt4_ai_score | 1.42 | 92.00 |
| gemini_ai_score | 9.49 | 93.87 |
MIT License
