[정이도 칼럼] ‘무섭다’ Chat GPT 이제는 조심해야
[정이도 칼럼] ‘무섭다’ Chat GPT 이제는 조심해야
  • 공학저널
  • 승인 2023.07.25 11:05
  • 댓글 0
이 기사를 공유합니다

AI 기술의 발전은 여러 산업 분야에서 혁신적인 변화를 가져오고 있다. Chat GPT와 같은 대화형 AI 모델은 다양한 분야에서 활용 가능성을 제시하고 있다. 이제는 활용 방법을 아느냐 모르냐가 아니라 무조건 Chat GPT를 활용해야 한다.

이미 미디어에서는 AI를 잘 사용하면 돈을 많이 벌 수 있다고 하고 실제로 Chat GPT를 통해 돈을 벌었다는 다양한 사례가 있다. 하지만, 중요한 것은 돈이 아니다. Chat GPT를 통해 얻을 수 있는 것은 시간이다.

이제는 많은 이들이 안다. 돈보다는 시간이 더 귀하다는 것을. 그리고 그 시간을 벌어주는 것이 Chat GPT이다. 이미 산학연에서 모두 Chat GPT를 적극적으로 활용하기 시작했고 장단점에 대해 구별을 명확하게 하기 시작했다. 그래서 더욱 중요해졌다.

어차피 Chat GPT의 활용은 거부할 수 없는 시대의 흐름이다. 컴퓨터가 그랬고 스마트폰이 그랬듯이 이제는 Chat GPT의 시대가 왔다. 하지만 그것이 무조건 좋다고 할 수는 없다. 아직 고려해야 할 사항이 너무 많다.

과연 개인정보를 보호할 수 있을까? 대화형 AI 모델이 개인 정보를 수집하거나 처리하는 경우, 개인 정보 보호에 대한 엄격한 기준이 있어야 한다. 특히, 사용자의 동의를 받고 데이터를 암호화하고 안전하게 보관해야만 한다. 사용자와의 상호작용을 통해 개인 정보를 다루게 될 수 있기에 데이터의 암호화, 접근 제어, 데이터 마스킹 등의 보안 절차를 수립하고 개인 정보 보호 규정을 준수해야 한다.

그리고 공개성과 투명성을 추구해야 한다. 모델의 작동 원리, 학습 데이터의 출처, 모델의 결정 과정 등을 가능한 한 투명하게 공개하고 설명할 필요가 있다. 또한, 대화형 AI 모델은 작동 방식과 데이터 처리 방법을 명확하게 설명할 수 있어야 한다. 그래야 신뢰를 할 수 있다.

자칫하면 편향된 정보나 결정을 제공하는 위험하게 된다. 개발자는 모델 개발 단계에서 편향성을 감지하고 수정하기 위해 노력해야 한다. 또한, 다양한 데이터 세트와 테스트를 통해 모델의 공정성도 확보해야 한다.

그리고 윤리적 지침을 따라야 합니다. 이러한 지침은 모델의 공정성, 안전성, 사생활 보호, 공정한 사용 등을 보장해야 효과적인 발전을 끌어낼 수 있다. 더욱이 모델의 교육과 훈련 데이터가 다양한 문화, 언어, 지역, 성별, 인종 등을 포함하도록 해야 한다. 데이터의 다양성은 모델의 능력과 편향성 대응에 도움을 줄 수 있다.

또한, 윤리적 원칙을 존중하며, 인간의 존엄성과 권리를 존중하는 방향으로 개발되어야 하고 인종, 성별, 종교, 장애 등에 대한 차별을 방지하고 공정성과 평등성을 지향해야 한다. 그리고 데이터의 편향, 모델의 구조적 한계, 사용자 상호작용의 편향 등으로 인해 발생할 수 있기에 편향성을 감지하고 대응하기 위한 메커니즘을 구축해야 한다.

대화형 AI 모델의 개발과 운용은 해당 국가의 법적 및 규제 요구사항을 준수해야 한다. 개인 정보 보호, 소비자 보호, 공정 경쟁, 알고리즘 투명성 등과 관련된 법적 책임과 규정을 준수해야 하고 국제적으로 공유되는 윤리적 가이드라인과 규제를 고려해야 한다.

사회적 영향 평가는 반드시 수행해야 한다. 사회적 문제를 해결하고, 차별이나 부정적 영향을 줄이는 방향으로 기여하는지 평가해야 한다. 필요한 경우, 외부 전문가들과의 협력을 통해 사회적 영향평가를 수행할 수 있어야 한다. 사회적 영향 평가를 통해 모델의 잠재적 위험과 부작용을 식별하고, 이를 해결하려는 조처를 할 수 있어야 한다.

Chat GPT는 지속해 개선 작업이 필요하다. 사용자 피드백을 수집하고 모델의 성능과 사용자 경험을 평가하여 개선점을 파악하고 적용해야 한다. 또한, 모델의 신뢰성을 높이기 위해 오류 처리 및 오작동 대응 메커니즘을 구축하고, 사용자에게 명확하고 일관된 응답을 제공해야 한다.
이를 위한 지속적인 혁신과 연구가 필요하다. 새로운 기술과 알고리즘의 도입, 성능 개선 및 기능 확장을 위한 연구를 지원하고, AI 생태계에 대한 지식과 협업을 촉진해야 한다. 이를 위해 연구 자금, 공동 연구 프로젝트, 그리고 오픈 소스 기여 등을 지원할 수 있어야 한다.

시간이 지날수록 Chat GPT는 고려해야 할 사항이 계속 만들어질 것이다. 이제는 정말 영화에서 보던 일이 실제로 일어날 수 있다는 것을 명심해야 한다. 지금, 이 순간에도 AI는 어떤 식으로 발전할지 예측하기 어렵다.

AI가 등장할 때는 가장 먼저 단순노동이나 단순 작업 등과 같은 일자리에 큰 위협을 하리라 예측했지만 예상과는 정반대로 창의적인 활동에 큰 위협이 되고 있다. AI가 그린 그림이 어느 대회에서 대상을 받기도 하고 자연스럽게 음악을 한 곳 뚝딱 만들어 낸다.

심지어는 소설도 쓰고 시도 짓는다. AI가 나오면 가장 먼저 위협이 될 직업에 대한 예측은 보기 좋게 어긋났기에 더욱 조심해야 한다. Chat GPT 등 AI를 활용하기 위해서는 정말 많은 사항을 고려해야 한다.

시간이 지날수록 Chat GPT와 같은 대화형 AI 모델이 더욱 발전하여 사회와 산업 분야에서 더 널리 활용될 것으로 예상된다. 그러나 위에서 이야기한 연구, 개발, 규제, 윤리적인 부분 등을 고려하지 않는다면 예상치 못한 위험에 처하게 될 것이다.

모든 전문가가 가장 우려하는 것은 AI가 인간을 지배하는 것이다. 아직은 사용자가 인간이기에 AI가 인간을 지배하는 것은 아주 먼 미래의 일이거나 아예 발생하지 않은 영화에서나 상상하던 일일 것이다.

하지만 그 시간은 이제 의미가 없다. 컴퓨터가 대중에게 본격적으로 활용된 것은 50년 전이고 스마트폰이 대중에게 보급된 것은 채 20년도 되지 않았다. AI가 대중화되기 시작한 것이 2년도 안 된다. 어떻게 어느 순간에 급격하게 발전할지 모르기에 지금부터 한 걸음 한 걸음 많은 부분을 고려해 가며 발전할 필요가 있다. 시간은 기다려 주지 않는다.

 

 

 

 

 

글_정이도
㈜드림기획 대표이사
공학전문기자/작가/칼럼니스트


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.