일본 뉴스 클립을 활용한 일본어 학습법

요즘 취미 삼아 일본어 공부를 하고 있는데, 느낌대로 해 본 받아쓰기 요령을 기록한다.

일본 홋카이도시의 지역 사건 사고를 알려주는 유튜브 방송을 자주 본다. 뉴스에 쓰이는 일본어는 발음도 좋고, 뉴스는 화면에 전달하는 내용을 적당히 요약해 자막으로 달아 주기 때문에 내용을 이해하기에도 좋다. 그리고 지역 뉴스라 그런지 시민들의 생활에 관련된 내용들을 짤막하게 전달하는 내용이 많아 분량상으로도 참 좋다.

영상 수집

우선 소스를 수집한다. 이 때 나는 ‘yt-dlp’라는 프로그램을 사용한다. 커맨드라인으로,

yt-dlp --force-overwrite \
  -qo "$(date +%Y%m%d).%(ext)s" \
  'https://www.youtube.com/watch?v=d8CrKBU99Hg'Code language: JavaScript (javascript)

이렇게 한다. 이 때 브라우저로 같이 라이브 방송을 시청한다. 그리고 원하는 분량만큼 녹화했다고 생각하면 중지하자. 이 때 영상이 녹화중인 것과 시청중인 것이 완전히 일치하지 않는다. 적당히 여유를 두어 느긋이 영상을 끊어낸다.

영상 편집

수집한 영상 소스에서 내가 할 만한 클립을 적당히 골라낸다. 너무 어려운 주제나, 별로 관심가지 않는 주제, 너무 긴 토픽은 과감하게 제외한다. 많이도 필요 없다. 딱 한 개, 1분 내외로만 하자. 적당한 클립을 찾았다면 그곳의 시작지점과 끝지점의 시간을 기록한다. 그리고 그 구간만 잘라낸다.

ffmpeg -i <input_video> --ss mm:ss --to mm:ss <output_video>Code language: HTML, XML (xml)

예를 들어, input.mp4 파일의 03분 10초부터 04분 22초까지 잘라내 output.mp4 파일로 만든다면,

ffmpeg -i input.mp4 --ss 03:10 --to 04:22 output.mp4Code language: CSS (css)

이렇게 하면 원하는 뉴스 클립만 깔끔하게 잘라낼 수 있다.

답안지 생성

이제 받아쓰기를 준비한다. 아직 초심자이기 때문에, 무작정 듣기만 해서는 효율이 나지 않는다. 먼저 인공지능에게 뉴스를 내용을 들려주고 받아쓰기를 시킨다.

약간의 요령이라면… 인공지능은 아나운서의 목소리에 조금만 지연이 생기면 듣기를 그만 두는 것 같다. 그러니 좀 불편해도 적당히 부분부분 잘라서 스크립트를 얻는다. 챗지피티를 유료로 쓰면 GPT-4o의 음성 대화를 더 쓸 수 있고 이게 좀 더 편하긴 하다.

매일매일 챗 프롬프트를 새롭게 만드는 것이 좋다. 챗 프롬프트를 계속 재활용하면 지난날의 스크립트와 지금의 스크립트를 막 뒤섞는 일이 있어 불편하다. 안드로이드 폰 자체의 음성 기록 기능도 나름의 대안이 될 것이다. 아무튼 이 부분은 좀 더 방법을 찾아야 한다.

듣고 적기

일단 그렇게 참고 자료를 만든 후, 동영상을 직접 듣고 직접 기록한다. 이 때 펜을 쓰지 않고 컴퓨터로 입력한다. 현재 실력으로는 한자까지 다 수기로 하기에는 너무 힘들다. 공부로서 성립되기 어렵다. 입력기의 자동 변환의 도움을 충분히 받아 최대한 소리를 들어 보고 적어 보는 연습을 해 본다. 지금은 정확히 발음을 캐치해서 히라가나로 정확히 적는 것도 어렵다.

그저 무한히 반복해서 듣는다고 해서 될 일이 아닌 것 같다. 적당히 듣고, 들어지는 것은 적고, 아무래도 안 들리는 것은 무리하지 말고 빨리 정답지(에 최대한 가까운 것)를 보고 이해하는 것이 나은 것 같다.

그래도 화면에 해당 뉴스의 내용을 요약한 자막이 뜨기 때문에 뉴스 내용에 중요한 한자 부분들은 참고할 수 있다. 힌트로 삼자. 모르긴 몰라도 듣고 히라가나로 적으면 입력기가 그 한자로 정확히 변환해 주고 있다는 것만 알아도 도움이 되는 것 같다.

도저히 모르겠으면 인공지능이 생성한 스크립트도 이 때 참고한다. 애초에 생성한 스크립트를 한 번 확인한 다음 듣게 되어 있기도 하고. 이쯤하면 거의 정확한 텍스트를 얻을 수 있다.

여기에 더해 잘 모르는 것은 여기에 번역기까지 써 본다. 이래저리 한일, 일한 번역을 해 보면 어떤 한자인지, 어떤 발음인지 어지간해서는 알아낼 수 있다! 이렇게 짧더라도 꼼꼼하게 아나운서가 어떤 말을 했는지 눈으로 보면서 정확하기 인지해 본다. 그러면 진짜 들리는 내용이 다르다.

정리

이렇게 잘 이해가 되었다면, 학습한 내용을 구글 드라이브에 업로드한다. 이거 나름 고행(?)이라 매일 하기는 조금 부담스럽지만 한 번 해 보면 확실하게 느껴지는 것이 다르다. 요즘은 인공지능이 있어 모르는 것에 대한 부담이 확 줄어든 것이 정말 다르다.

이 방법은 굳이 일본어에만 국한되지는 않을 것 같다. 어떤 언어든 요즘은 내가 관심만 기울이면, 그리고 AI가 지원하는 언어라면 큰 돈 들이지 않고 공부해 볼 수 있을 것 같다.

사실 예전에 군대에서 Dido의 ‘Thank You’라는 노래의 가사를 직접 적어보려고 애쓴 적이 있다. 당시 군 내에서 어떻게 인터넷을 쓸 수 있었겠나? 그냥 무작정 들리는 대로 적어보려고 했지만 특정 부분은 미친 듯이 들리지 않더라. 정답지도 없고, CD 플레이어가 나름 구간 반복을 지원해도 불편하고, 그 때의 비효율성을 잘 기억하고 있다. 그에 비하면 지금은 비교도 안 될 정도로 발전되어 있다.

Comments

댓글 남기기