개발자 멸종? 난 AI를 써서 살아남기로 했다! 하버드 교수 사이다 참교육
행복하게 들리지만 사실은 꽤 냉정한 이야기였습니다.
이 강연은 생성형 AI가 얼마나 대단한가를 자랑하려는 게 아니라, 우리가 앞으로 어떤 능력을 가져야 살아남는지를 말합니다.
CS50에서 늘 하던 러버덕 디버깅 얘기로 시작합니다.
막힐 때 누군가에게 설명하면 뇌가 정리되면서 스스로 답을 찾게 되는 그 습관 말입니다.
예전엔 말 한마디 못 하는 오리였는데, 이제는 생성형 AI 시대라서 오리가 말을 하게 됐습니다.
중요한 건 이 오리가 답을 찍어주는 기계가 아니라, 학생이 스스로 깨닫게 안내하는 조교 역할을 하도록 설계됐다는 점입니다.
그다음은 가짜를 맞히는 게임을 보여줍니다.
사진도, 글도, 이제는 사람이 구분하기 어려운 수준까지 왔고 곧 더 어려워질 거라고 말합니다.
여기서 메시지는 단순합니다.
앞으로는 보이는 것만 믿고 판단하면 위험해진다는 뜻입니다.
그리고 프롬프트 얘기가 나옵니다.
프롬프트 엔지니어링이라는 말이 멋있어 보이지만, 본질은 맥락을 제대로 주는 능력이라고 합니다.
특히 시스템 프롬프트로 AI의 역할과 금지선을 정해 두면, AI가 함부로 정답을 던지는 대신 튜터처럼 행동하게 만들 수 있습니다.
결국 AI를 잘 쓰는 사람은 좋은 질문을 던지는 사람이라는 말입니다.
가장 인상적인 장면은 코파일럿 시연입니다.
학생들이 며칠 밤 새워 고생하는 C 과제를 AI가 몇 초 만에 채워 넣는 모습을 보여줍니다.
여기서 누구나 같은 질문을 하게 됩니다.
이렇게 다 해주는데 우리는 왜 배우나.
강연자가 내놓는 답은 분명합니다.
AI가 만든 코드를 읽고 검증할 눈이 없으면, 그럴듯한 거짓말을 그대로 믿고 망한다는 겁니다.
좋은 코드와 나쁜 코드를 구분하는 감각은 고통 속에서만 자라고, 그 감각이 있는 사람에게 AI는 능력을 증폭시키는 도구가 됩니다.
결국 우리는 벽돌을 쌓는 사람이 아니라, 건물을 설계하는 사람으로 역할이 바뀐다는 말입니다.
후반부는 AI의 원리를 짚습니다.
스팸 필터, 필기 인식, 추천 시스템처럼 이미 세상은 확률 기반 예측으로 돌아가고 있고, 게임처럼 단순한 세계는 규칙으로 풀 수 있지만 체스나 바둑 같은 복잡한 세계는 경우의 수가 너무 커서 규칙만으로는 한계가 옵니다.
그래서 기계학습, 강화학습, 딥러닝이 등장했고, 보상과 처벌로 기계가 스스로 전략을 찾게 됩니다.
마지막으로 거대 언어 모델의 본질을 말합니다.
이건 의미를 이해하는 존재가 아니라, 다음 단어를 확률로 맞히는 거대한 통계 기계에 가깝습니다.
그래서 틀릴 수도 있고, 그 틀림이 아주 그럴듯하게 나오는 환각 문제도 생깁니다.
정리하면 AI는 만능이 아니라, 강력하지만 믿을 수 없는 순간이 있는 도구입니다.
제가 이 영상에서 받아간 결론은 이겁니다.
AI가 숙제를 대신하는 시대가 왔지만, 그래서 배움이 끝난 게 아니라 배움의 목표가 바뀌었습니다.
정답을 만드는 손보다, 정답을 가려내는 눈이 더 중요해졌습니다.
AI를 쓰는 사람과 AI에 속는 사람의 차이는 결국 기초와 판단력에서 갈릴 겁니다.

댓글
댓글을 작성하려면 이 필요합니다.