둘째 분유 타다 노트북 켠 밤 11시. 내일 아침 취약점 점검 보고서 마감인데, 회의에서 보스가 “AI 잘 쓰는 사람은 30분이면 끝낸다더라”라고 한 말이 자꾸 머릿속에 맴돌아요. 사실 저는 정보보안 일하는 직장인이라 ChatGPT나 클로드를 그냥 막 못 씁니다. 회사 코드 한 줄, 고객사 IP 하나만 잘못 넣어도 큰일 나거든요. 근데 안 쓰자니 옆자리 동료는 이미 보고서 초안을 30분 만에 뽑아놓고 퇴근하고 있더라구요.
그래서 지난 6개월 동안 “보안 안 새면서 AI 빠르게 쓰는 법”을 정리해 봤어요. 직장인이라면 누구나 쓰지만, 정보보안 시각으로 한 번 더 걸러본 활용법입니다. 2026년 5월 기준 최신 보안 기능과 도구 변화까지 모두 반영했어요. 이 글 하나로 안전한 활용법, 시간 절약 팁, 그리고 실제 사고를 막는 5가지 원칙까지 다 알려드릴게요.
- 맥킨지 조사: AI 활용 직장인 생산성 25~40% 향상 (2026년 기준)
- 회사 정보 입력 = 학습 데이터 가능성 → 마스킹 필수
- ChatGPT 신기능 Lockdown Mode로 프롬프트 인젝션 차단
- 업무별 도구 분리: 코딩은 클로드, 문서는 ChatGPT가 일반적
- 임시 채팅 모드 활용 시 서버 저장 자체가 안 됨


AI, 직장인이 진짜 써야 하는 이유
이거 저도 글 쓰면서 찾아보다가 처음 알게 됐는데요, 맥킨지가 2026년 초에 발표한 보고서에 따르면 LLM을 업무에 적극 활용하는 직장인 그룹의 평균 생산성이 25~40% 올랐다고 합니다. 특히 문서 작성, 데이터 정리, 이메일 응답처럼 반복적인 업무에서 효과가 컸어요. 이게 무서운 이유는 따로 있어요.
“평균 25%”라는 건, 같은 일을 하면서도 누구는 8시간 걸리고 누구는 6시간 만에 끝낸다는 뜻이거든요. 일주일에 10시간 차이가 나는 셈입니다. 1년이면 500시간. 두 영유아 키우는 저 같은 사람한테는 그 시간이 곧 잠자는 시간, 아이 보는 시간, 운동하는 시간이에요.
저는 솔직히 처음엔 “AI가 보안업에서 쓸모 있을까” 의심했어요. 정보보안 일은 회사 내부 정보를 다루다 보니까 AI에 그대로 입력 못 하잖아요. 근데 입력 정보만 잘 가공하면 분석 시간이 절반으로 줄어들더라구요. 보고서 초안, 로그 패턴 정리, 컴플라이언스 문서 검토 — 다 AI가 잘 하는 일들이에요.
특히 코드 리뷰 시간이 압도적으로 줄었어요. 1000줄짜리 코드를 사람이 한 줄씩 보면 하루 종일 걸리는데, AI한테 “이 코드의 보안 취약점 찾아줘” 시키면 5분 만에 의심 구간을 다 짚어줘요. 물론 AI 답변을 그대로 믿으면 안 되고 검증은 따로 해야 하지만, 시작점 잡는 시간이 1/10로 줄어든다는 게 핵심이에요.
이 글에서는 단순한 “ChatGPT 프롬프트 모음”이 아니라, 회사 정마 안 새게 안전하게 쓰는 법, 그리고 두 아이 키우는 워킹대디가 어떻게 30분 안에 업무를 끝내는지 정리해 볼게요.

AI가 내 정보를 어떻게 처리하는지부터 이해하기
이게 핵심이에요. 진짜로요. AI 활용 글들 보면 “프롬프트 잘 짜는 법” 같은 표면적인 얘기만 나오는데, 더 중요한 건 내가 입력한 정보가 어디로 가는지 먼저 아는 거예요.
일반 사용자 ChatGPT의 경우 입력 데이터는 OpenAI 서버에 저장되고, 옵션을 끄지 않으면 학습 데이터로 활용될 수 있어요. 클로드도 비슷하지만, Anthropic은 기본적으로 학습 미사용을 default로 두고 있구요. 그러니까 “회사 코드 그대로 붙여넣기”는 진짜 안 됩니다. 한 번 들어간 데이터는 캐시, 로그, 백업에 어딘가 남거든요.
왜 이렇게까지 조심해야 하나면, AI 학습은 단순히 “데이터를 저장”하는 게 아니라 “패턴을 모델에 새기는” 작업이거든요. 한번 학습된 정보는 다른 사용자의 질문에 응답으로 흘러나올 수 있어요. 2023년 삼성전자 직원이 회사 소스코드를 ChatGPT에 입력했다가 그게 외부에 노출된 사건은 보안 업계에서 유명한 사례에요.
제가 회사에서 점검하다 보면 가끔 직원분들이 ChatGPT에 회사 DB 스키마 그대로 넣어서 쿼리 짜달라고 한 흔적이 발견돼요. 본인은 “내 화면에서만 보일 거”라고 생각하지만, 그 데이터는 이미 외부 서버에 올라간 거에요. 정보보안 사고 보고서 90%가 이런 무지에서 시작합니다.
그래서 직장인이 AI 쓸 때 첫 번째로 할 일은 “내가 다루는 정보가 회사 자산인가, 개인 자산인가” 구분하는 거예요. 회사 자산이면 무조건 마스킹하거나 회사가 승인한 도구만 사용. 이거 하나만 지켜도 사고 90%는 막아요.
그리고 모든 AI 도구는 “프라이버시 정책”이라는 게 공개돼 있어요. 본인이 쓰는 도구 정책 한 번은 꼭 읽어보세요. 5분 투자로 회사 짤릴 위험을 막을 수 있어요. 너무 복잡하면 ChatGPT한테 그 약관을 요약해 달라고 하면 됩니다. 어찌됐든 본인이 쓰는 도구의 데이터 처리 방식은 알고 써야 해요.
ChatGPT, 클로드, 제미나이 어떻게 다른가
| 항목 | ChatGPT (GPT-5.5) | Claude (Sonnet 4.5) | Gemini 2.5 |
|---|---|---|---|
| 강점 | 이미지 생성, 멀티모달 | 긴 문서 분석, 코딩 | 구글 워크스페이스 연동 |
| 한국어 | 자연스러움 | 매우 자연스러움 | 자연스러움 |
| 무료 플랜 | 제한적 GPT-4 사용 | 일일 메시지 제한 | 관대한 편 |
| 유료 | 월 20달러 (Plus) | 월 20달러 (Pro) | 월 20달러 (Advanced) |
| 보안 | Lockdown Mode 제공 | Enterprise 데이터 격리 | Workspace 보안 통합 |
저는 솔직히 ChatGPT 하나만 쓰는 거보다 두 개 같이 쓰는 게 훨씬 낫다고 봐요. 실제로 해보면 차이가 느껴지거든요. ChatGPT는 멀티모달(이미지·음성)이 강하고, 클로드는 긴 문서 분석이랑 코드 관련 작업이 압도적으로 정확해요. 부서 전체가 한 도구만 쓰는 회사는 비용이 더 들어요.
여담인데, 제 친구 중에 오토캐드 3D 디자인 하는 친구가 있는데요, 처음엔 ChatGPT만 썼다가 도면 분석 정확도 때문에 클로드로 갈아탔어요. 자기 분야에 맞는 도구 찾는 데 한참 걸렸다고 하더라구요. 어쨌든 본론으로 돌아오면, 직장인이라면 무료 계정 두 개 정도는 동시에 운영하는 게 좋아요.
2026년 1월 출시된 클로드 Cowork는 좀 특별합니다. 일반 챗봇처럼 답만 주는 게 아니라, 작업 계획부터 흐름 조절까지 스스로 판단해서 형식이 정리된 문서나 구조화된 파일을 결과로 줍니다. 보고서 초안 같은 거 만들 때 정말 유용해요. 다만 이건 Pro 이상 플랜에서만 됩니다.
제미나이는 구글 문서, 시트, 지메일에 이미 들어가 있어서 구글 워크스페이스 쓰는 회사라면 자연스럽게 연동돼요. 저는 회사가 MS 365라 메일/달력 자동화는 코파일럿이 더 편하지만, 친구 회사처럼 구글 환경이면 제미나이가 정답이에요.
보안 직장인이 알려주는 안전 사용법 5가지
이게 이 글의 진짜 핵심이에요. 회사 정보 새게 하지 않으면서 AI를 쓰는 5가지 방법, 정보보안 점검하는 입장에서 강조하고 싶은 것들입니다.
1. 임시 채팅 모드(Temporary Chat) 사용 — ChatGPT 우측 상단에 “임시 채팅” 버튼 있어요. 이걸 누르면 대화 내용이 서버에 저장 자체가 안 돼요. 회사 관련 질문은 무조건 이 모드로. 클로드도 비슷한 옵션이 있고요. 이거 효과적인 이유는, 학습 데이터로도 안 쓰이고 다른 사용자의 데이터 유출 사고 영향도 안 받기 때문이에요.
2. 식별 가능 정보 마스킹 — 코드를 묻을 때는 회사명·DB명·변수명·IP 주소 같은 걸 모두 가짜 이름으로 바꿔요. 예를 들어 회사 DB 이름이 ‘redchupa_prod’라면 ‘sample_db’로 바꾸고, 직원 ID나 이메일은 ‘[email protected]’ 같은 더미로 대체. 이거 한 줄짜리 파이썬 스크립트로 자동화하면 편해요. 마스킹의 핵심은 “외부에 노출돼도 어떤 회사인지 추적 불가능”한 수준까지 가공하는 거예요.
3. 회사 승인 도구 사용 — 점점 많은 회사가 ChatGPT Enterprise나 Microsoft Copilot을 도입하고 있어요. 이런 기업용 도구는 입력 데이터를 학습에 안 쓰고, 데이터 격리도 보장합니다. 회사가 안 사주면 IT팀에 건의하세요. 직원 한 명당 월 30~60달러 정도 들지만, 사고 한 번이면 그게 몇 천 배로 돌아옵니다. 한 직원이 코드 유출하면 보통 손해배상이 수억대로 올라가거든요.
4. Lockdown Mode 활용 — 2026년 OpenAI가 추가한 기능인데, 민감한 보안이 필요한 사용자용 고급 설정이에요. 웹 접근이랑 외부 도구 사용을 제한해서 프롬프트 인젝션 공격으로 정보가 빠져나가는 걸 막습니다. 임원이나 보안 담당자라면 무조건 켜세요. 설정에서 “보안 우선 모드” 켜면 됩니다.
5. 출력 결과 재검증 — AI가 만든 코드나 문서를 그대로 회사에 제출하지 마세요. 한번 직접 읽고, 틀린 부분 없는지 확인. 저는 예전에 파생상품 사기로 1억 3천 가까이 날린 적이 있는데, 그때 배운 게 “공부하고 신뢰했다고 안전한 거 아니다”였거든요. AI도 똑같아요. 맹신하면 사고 납니다. 특히 법령, 수치, 회사 고유 절차에 대해서는 AI가 자신 있게 거짓말을 할 수 있어요. 항상 1차 자료 확인이 필요해요.

30분 안에 끝내는 실전 업무 자동화
이건 제가 두 영유아 키우면서 어떻게든 정시 퇴근하려고 만든 워크플로우에요. 야근 못 하는 워킹대디의 30분 퇴근 전 활용법.
오전 9~10시 — 메일 정리: 받은편지함 캡처해서 ChatGPT에 “이 메일들 우선순위 매겨주고 답장 초안 만들어줘” 요청. 단, 메일에 회사 기밀 있는 건 제외. 5분이면 끝나요. 프롬프트 예시는 이렇게: “다음 5개 메일을 (1) 즉시 답장 (2) 오늘 답장 (3) 이번 주 답장으로 분류하고 각각 1줄짜리 답장 초안 만들어줘.”
오전 10~11시 — 보고서 뼈대 만들기: 클로드 Cowork에 “주제: ○○○, 분량: 5장, 구조: 개요-현황-분석-제언” 식으로 시켜요. 결과물을 받아서 자기 표현으로 다시 다듬는 거에요. 처음부터 쓰는 거랑 비교하면 시간이 1/3로 줄어요. 핵심은 AI 답을 그대로 쓰지 말고 본인 톤으로 재구성하는 거예요. 그래야 AI 티도 안 나고 본인 이름 걸고 낼 수 있어요.
오후 2~3시 — 데이터 분석: 엑셀 파일 ChatGPT에 올려서 “이 데이터에서 패턴 찾아주고, 그래프 만들 수 있는 코드 짜줘” 부탁. 단, 회사 실데이터는 절대 X. 익명화해서 패턴만 추출하는 거예요. 컬럼명을 ‘A, B, C’로 바꾸고 행 데이터를 일부만 샘플로 넣어도 패턴 분석은 충분해요.
오후 5시 30분 — 퇴근 전 정리: 오늘 한 일 메모 ChatGPT에 던지고 “내일 할 일 우선순위로 정리해 줘”. 5분 만에 깔끔한 to-do 리스트 완성. 이거 하면 다음 날 아침에 멍 때리는 시간이 사라져요.
혹시 이런 경험 있으신가요? 야근 안 한다고 일찍 퇴근했는데 집에 와서도 머릿속에서 일이 안 떠나는 거. AI한테 “내일 할 일 정리”만 시켜놔도 그 부담이 훨씬 줄어요. (이거 저만 그런 건 아니겠죠?)
이 워크플로우의 핵심은 “AI가 잘하는 일과 사람이 잘하는 일을 분리”하는 거예요. AI는 반복적인 정리, 초안 작성, 패턴 찾기를 잘해요. 사람은 판단, 검증, 최종 결정을 잘하구요. 둘이 합쳐지면 평소 8시간 걸리던 일이 4~5시간으로 줄어요.
초보자가 가장 많이 하는 실수
제가 보안 점검 다니면서 직원분들이 AI 쓰면서 하는 흔한 실수 5가지 정리해 봤어요. 이거 안 하는 것만으로도 사고 위험이 절반 이상 줄어듭니다.
실수 1. 회사 정보 그대로 입력 — 가장 많아요. “이 코드 디버그해줘” 하면서 진짜 회사 코드 그대로 붙여넣는 거. 왜 문제냐면, 그 코드에는 보통 인증키, 서버 주소, 내부 라이브러리 이름 같은 게 다 들어 있거든요. 한 번 들어가면 못 빼요.
실수 2. 무료 플랜에서 민감 정보 입력 — 무료 ChatGPT는 학습 데이터로 쓰일 수 있어요. 옵션 끌 수 있긴 한데 기본 설정은 켜져 있어요. 학습 미사용 옵션 켜는 법 확인은 필수. 설정 → 데이터 컨트롤 → “Improve the model for everyone” 끄기.
실수 3. AI 답변 그대로 제출 — AI가 그럴싸하게 만든 보고서, 코드 그대로 제출했다가 사실관계나 코드 오류로 곤란해진 사례가 많아요. 특히 수치, 날짜, 법령 인용은 무조건 재검증. AI는 모르는 걸 모른다고 안 해요. 그럴싸하게 지어내는 능력이 너무 좋아서 오히려 위험해요.
실수 4. 비밀번호·API 키 입력 — 농담 같지만 실제 사고 사례가 있어요. “이 API 키로 어떻게 쓰는지 알려줘” 하면서 진짜 운영 중인 키를 넣는 거. 이거 들어가면 그 키는 폐기하고 새로 발급해야 돼요. 키 자체가 외부에 한 번이라도 노출됐다면 더 이상 안전한 키가 아니거든요.
실수 5. 같은 대화창에서 너무 많은 주제 섞기 — 이건 보안보다는 효율 문제인데요, AI가 앞 대화의 맥락을 계속 끌고 와서 답이 점점 이상해져요. 주제 바뀌면 새 대화창 열어요. 컨텍스트가 너무 길어지면 AI가 처음 지시를 잊어버리기도 하거든요.
함께 쓰면 좋은 보조 도구
AI 챗봇만 쓰는 거보다 보조 도구 같이 쓰면 효율이 더 올라가요. 제가 실제로 쓰는 것들이에요.
Notion AI: 회사에서 노션 쓰면 거의 필수. 작성 중인 문서 안에서 바로 요약, 번역, 톤 조정 가능. 회사가 노션 엔터프라이즈 쓰면 데이터 격리도 보장돼요. 월 10달러 정도라 부담도 적어요.
Perplexity: 출처가 명시되는 AI 검색. ChatGPT는 답만 주는 반면 Perplexity는 출처 링크가 같이 나와요. 사실 검증이 중요한 업무는 이게 더 안전합니다. 저는 정책 변경 사항이나 법령 확인할 때 항상 Perplexity 먼저 쓰고 출처 링크를 따라가서 원문 확인해요.
로컬 LLM (Ollama, LM Studio): 정보보안에 진심이라면 로컬에서 돌아가는 LLM도 검토할 만해요. 인터넷에 데이터 안 보내고 노트북에서 처리. 모델은 좀 떨어지지만 회사 진짜 기밀 다룰 때 유용. 다만 GPU 좀 좋은 게 있어야 합니다. RTX 4070 정도면 Llama 3 8B 모델은 잘 돌아가요.
Microsoft Copilot: 회사가 MS 365 쓰면 자동으로 Word, Excel, PowerPoint, Outlook에 들어가 있어요. 보안적으로도 제일 안심되는 옵션 중 하나에요. MS는 입력 데이터를 학습에 안 쓴다고 명시적으로 약속하고 있고, 회사 테넌트 안에서만 데이터가 머물거든요.
대신 질문 해드릴게요
Q1. 무료 ChatGPT만 써도 충분한가요?
개인 일상 용도면 충분해요. 근데 회사 업무에 진지하게 쓰려면 Plus(유료)는 거의 필수에요. 응답 속도, 답변 품질, 사용량 제한이 다 달라요.
Q2. 회사가 ChatGPT 사용을 금지하면 어떻게 해요?
일단 따라야 하구요, 대안으로 Microsoft Copilot이나 Notion AI처럼 회사가 이미 쓰는 도구에 들어가 있는 AI 기능을 활용하세요. 또는 IT팀에 ChatGPT Enterprise 도입 건의해 보세요.
Q3. 한국어로 쓸 때 ChatGPT랑 클로드 중 뭐가 더 나아요?
저는 클로드가 더 자연스럽다고 느꼈어요. 특히 긴 한국어 문서 요약이나 격식 있는 문서 작성은 클로드가 한 수 위. 다만 이건 개인차 있으니 둘 다 써보시는 걸 추천.
Q4. AI한테 시킨 일이 나중에 책임 문제 되지 않을까요?
AI 출력은 참고 자료이지 결정 근거가 될 수 없어요. 최종 판단은 본인이 해야 하구요, 책임도 본인이 져요. 그래서 검증 단계가 무조건 필요해요.
Q5. 보안 담당자인데 회사 직원들 AI 사용을 어떻게 관리해야 하나요?
정책 + 도구 + 교육 세 가지 동시에 가야 해요. 정책으로 사용 범위 정하고, ChatGPT Enterprise 같은 통제 가능한 도구 도입하고, 직원들한테 마스킹 교육. 하나만 빠지면 사고 납니다.
Q6. ChatGPT가 만든 코드 회사에 그대로 써도 되나요?
라이선스 문제 때문에 미묘해요. OpenAI는 출력물 사용 권리를 사용자에게 주지만, 학습 데이터에 GPL 같은 코드가 섞여 있을 가능성은 있어요. 중요한 코드는 직접 검토 + 재작성을 권장.
Q7. 임시 채팅 모드 쓰면 정말 데이터 안 남나요?
OpenAI 정책상 30일 후 완전 삭제예요. 일반 채팅은 학습용으로 쓰일 수 있는 반면, 임시 채팅은 그게 안 됩니다. 다만 30일 동안은 보관됨이라 100% 즉시 삭제는 아니에요. 이게 맞는 건지 저도 100% 확신은 못하니까 OpenAI 공식 정책 페이지 한번 확인해 보세요.
Q8. 직장인이 AI 한 가지만 마스터한다면 뭘 추천?
저는 클로드 추천해요. 한국어, 코드, 긴 문서 분석 다 강하고 보안 정책도 비교적 엄격해요. 다만 ChatGPT가 멀티모달 강점이 있어 두 개 같이 쓰는 게 베스트.

레추의 총평
AI는 이제 안 쓰는 게 손해인 시대가 됐어요. 다만 직장인, 특히 회사 정보 다루는 사람이라면 그냥 막 쓰면 안 돼요. 정보보안 점검 업무를 하는 입장에서 솔직히 말씀드리면, 사고는 늘 “내가 입력한 게 어디로 가는지” 모르는 사람한테서 일어납니다.
오늘 정리한 5가지 안전 사용법 — 임시 채팅, 정보 마스킹, 회사 승인 도구, Lockdown Mode, 결과 재검증 — 이 다섯만 지켜도 90%는 안전해요. 그리고 30분 워크플로우는 직접 한 달만 해보세요. 야근이 줄어요. 진짜로요.
한 가지 부탁: AI를 너무 신뢰하진 마세요. 저는 파생상품 잘못 들어가서 큰돈 잃은 경험이 있어서 그런지, “전문가가 만든 거니까 안전하겠지”라는 말이 제일 위험하다는 걸 배웠어요. AI도 똑같아요. 도구일 뿐이에요. 검증은 결국 사람이 해야 합니다.
틀릴 수도 있으니 회사 정책이나 OpenAI 공식 정책 페이지에서 한 번 더 확인하시는 게 좋을 것 같아요. 정책은 자주 바뀌거든요. 안전하게, 그리고 빠르게 일하시길 바랄게요.
실천 체크리스트
- 회사 정보 입력 전 마스킹했는지 확인
- 임시 채팅 모드 사용 습관화
- 학습 데이터 사용 옵션 끄기
- AI 출력 결과 직접 검증
- 회사 보안 정책 준수
참고: OpenAI 개인정보 정책 | Anthropic 개인정보 정책
이 글과 함께 많이 보는 상품
이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다.