AI 연구회 2019 심포지엄: 흥미로운 하이라이트와 논점

Find AI Tools in second

Find AI Tools
No difficulty
No complicated process
Find ai tools

AI 연구회 2019 심포지엄: 흥미로운 하이라이트와 논점

제목: AI 연구회 년차 심포지엄: AI와 경찰 국가

목차

  1. AI와 사회, 문화, 정치적 변화
  2. 얼굴 인식 기술의 이용과 문제점
    • 얼굴 인식 기술의 확산
    • 얼굴 표정을 통한 감정 인식 기술의 한계
    • 얼굴 인식 데이터베이스의 무단 접근과 사용
    • 얼굴 인식 기술에 대한 규제와 반대 운동
    • 얼굴 인식 기술과 인종, 소득 격차의 문제
  3. 자동화된 결정 시스템의 위험성과 정의
    • 전미선거에서의 투표설계 시스템 문제
    • 인종에 따른 편견이 반영된 데이터의 문제
    • 경찰 시스템에서의 편향된 데이터 활용
    • 정의를 위한 정책 변화의 필요성
  4. 분류의 정치와 인종 계급주의
    • 사회 계급과 인종에 따른 분류 문제
    • 인종을 이용한 사회적 계층화 정책
    • AI 분야에서 인종에 대한 편견
  5. AI를 통한 대규모 감시 운동과 부동산 문제
    • 기업의 대규모 감시 시스템의 확산
    • 부동산 시장과 기술 기업의 상호간 연결
    • 부동산 문제와 젠트리피케이션
    • 대규모 기업의 전망에 대한 지역 사회의 저항
  6. 기후 변화와 AI의 연계
    • AI의 에너지 소비와 탄소 배출량
    • 기후 변화 운동과 기술 기업의 관계
    • 지속 가능한 AI 개발과 환경 정책의 필요성

AI와 경찰 국가

AI 연구회에서는 매년 AI의 사회, 문화, 정치적 영향을 평가하고 현재와 미래를 고찰합니다. 지난 해에는 AI의 책임 소재에 관해 탐구하며 AI 연구자들이 직면한 문제에 대해 살펴보았습니다. 이번 해에는 근로자, 지역사회 그룹, 연구자, 정치인들이 시스템의 중앙 집중화와 비책임적인 기술 기반 권력에 저항하고 있는 최신 개입 방안에 대해 업데이트된 정보를 전달할 예정입니다.

얼굴 인식 기술의 이용과 문제점

이번 연례 심포지엄에서는 얼굴 인식 기술에 초점을 맞춥니다. 얼굴 인식 기술은 공공 주택, 고용 및 도시의 길거리에서 점점 더 보편화되고 있습니다. 일부 미국 항공사 조차도 탑승권 대신 얼굴 인식을 사용한다고 주장하며 편의성을 강조합니다. 그러나 심리학자 리사 펠드만 베렛은 학술 논문에서 내막 감정 인식 기술인 효과 인식의 신뢰할 수 없는 접근 방식을 밝혔습니다. 이러한 기술은 이미 교실과 취업 면접 등에서 무엇을 모르고 있던 사람들에게 사용되고 있다는 문제점이 있습니다. 조지타운 개인정보와 기술 센터에 의해 추출된 기밀 문서에 따르면, FBI와 Immigration and Customs Enforcement (ICE)은 수백만 장의 사진에 대해 사용자의 동의나 법적 인가 없이 얼굴 인식 검색을 수행하고 있습니다. 그러나 연구자들과 조직들의 노력에 의해 얼굴 인식의 사용을 제한하고자 하는 요구가 계속해서 나오고 있습니다.

자동화된 결정 시스템의 위험성과 정의

분석에 의하면, AI 기술의 결정 시스템은 부실하거나 훼손되었을 때 실수할 수 있는 위험을 내포하고 있습니다. 예를 들어, 전미 주지사였던 릭 스나이더는 비법의 정문에 토록한 미시간의 전 김씨라는 전자적 의사결정 시스템을 도입하였습니다. 이 시스템은 범죄자 혜택 부정 혐의가 있는 직원을 자동으로 식별하기 위해 설계되었지만, 93%의 오류로 2만명 이상의 주민을 잘못 의심하게 됐습니다. 이는 경제적 파산과 심지어 자살 사례를 야기했습니다. 이러한 문제는 근본적인 가난 이데올로기에 근거한 정책의 결과일 뿐입니다. 이번 심포지엄에는 이 같은 문제점에 대한 깊은 이해와 객관적인 분석을 제시하는 아웃사이더들을 초청했습니다.

분류의 정치와 인종 계급주의

분류는 사회 계층과 인종과의 관계에서 중요한 역할을 합니다. 인종을 이용한 분류는 사회적 계급구조를 정당화하기 위한 도구로 사용되며 이러한 논리는 AI의 개념과 인종과의 상관관계에 영향을 끼치고 있습니다. AI 분야의 선진성과 활용은 뛰어난 인물들과 연구자들의 도움 없이는 이뤄질 수 없었으며, 인종 편향성을 해소하는 것이 주요 관심사입니다.

AI를 통한 대규모 감시 운동과 부동산 문제

AI의 대규모 감시 시스템은 사회에 중대한 영향을 미치고 있습니다. 예를 들어, 아마존 링은 사람들이 집과 동네 전반의 24시간 CCTV 비디오 영상을 가지게 하는 감시 비디오 카메라와 도어벨 시스템입니다. 아마존은 전국 400개 이상의 경찰서와 협력하며 경찰에게 시스템의 구매를 장려하고 있습니다. 그리고 국내에서는 주민들이 집 주변에 설치된 지능형 가로등에 항의하여 철수하고 있습니다. 이러한 대항동은 구글의 산호세 확장을 포함한 기술 기업들이 도시를 재구성하는 것과의 관계를 보여주고 있습니다. 이와 함께 지속적인 젠트리피케이션과도 관련이 있으며, 이차 대응이 필요합니다.

기후 변화와 AI의 연계

AI는 에너지를 많이 소비하며 자연 자원도 많이 사용하는 기술입니다. 연구에 따르면 자연어 처리 시스템을 위한 하나의 AI 모델을 만드는 데에도 약 60만 파운드가 넘는 이산화탄소를 발생시킬 수 있다고 알려져 있습니다. 이는 뉴욕과 베이징을 왕복하는 항공기 125편을 운행하면 발생하는 탄소 배출량과 동일합니다. 대규모 AI 시스템의 탄소 배출량은 세계 항공 산업의 배출량에 비해 상당한 수치입니다. 하지만 저희는 이미 기후 문제에 대항하려는 기술 회사 근로자들에 의해 전 세계에서 첫 번째로 시작된 쟁의에 의한 예외를 보고 있습니다.

하이라이트

  • 얼굴 인식 기술의 확산과 인식 기술의 한계
  • 자동화된 결정 시스템에서의 위험과 정의 쟁점
  • 분류의 정치성과 인종 계급주의 문제
  • AI를 통한 대규모 감시 운동과 부동산 문제
  • 기후 변화와 AI의 탄소 배출량 문제 해결을 위한 노력

자주 묻는 질문 및 답변

Q: 얼굴 인식 기술의 주요 문제점은 무엇인가요? A: 얼굴 인식 기술은 사생활 침해와 인종, 소득 격차 등 다양한 문제를 야기할 수 있습니다. 무단으로 데이터베이스에 접속하거나 법적 권한 없이 수백만 장의 얼굴 사진을 검색하는 등의 행위가 문제점으로 지적되고 있습니다.

Q: 자동화된 결정 시스템의 위험성은 어떤 것이 있나요? A: 자동화된 결정 시스템은 잘못된 결과를 내거나 편향된 결정을 할 수 있는 위험이 있습니다. 예를 들어 부정확한 AI 모델이 수백만 장의 사진을 잘못 분석하는 등의 사례가 있었습니다.

Q: 기후 변화와 AI의 연계가 왜 중요한가요? A: AI는 에너지 소비가 많고 탄소 배출량이 크기 때문에 기후 문제에 영향을 미칠 수 있습니다. 따라서 지속가능한 AI 개발과 탄소 배출량 감소를 위한 노력이 필요합니다.

Q: 어디에서 더 많은 정보를 얻을 수 있나요? A: 자세한 내용은 AI 연구회의 웹사이트에서 확인할 수 있습니다.

참고 자료

  • Georgetown Center on Privacy and Technology: 링크
  • Anti-Eviction Mapping Project: 링크
  • My Gente: 링크
  • AI Now: 링크

Most people like

Are you spending too much time looking for ai tools?
App rating
4.9
AI Tools
100k+
Trusted Users
5000+
WHY YOU SHOULD CHOOSE TOOLIFY

TOOLIFY is the best ai tool source.