정보 기술 사용의 윤리적 딜레마

첫 번째 인쇄기부터 윤리적 딜레마는 항상 기술 발전에 따라 왔습니다. 정보 기술은 계속 진화하고 있지만 비즈니스 소유자와 IT 관리자가 직면하게 될 결정도 마찬가지입니다. 불과 몇 년 전만해도 소프트웨어 불법 복제는 많은 비즈니스에서 문제 였지만 현재의 경우는 그다지 적지 않습니다. 지난 몇 년 동안, 고객 데이터를 보호해야하는 방법, 법률뿐만 아니라 고객의 기대를 충족시키는 방식으로 인공 지능을 사용해야하는 방식과 같이 정보 기술의 새로운 윤리적 문제가 진화했습니다.

해적 행위와 기술 변화의 윤리적 딜레마

어떤 경우에는 정보 기술의 진화가 윤리적 딜레마를 제거하는 방법을 가지고 있습니다. 비즈니스 소유자와 IT 관리자는 불과 몇 년 전에 직면하게됩니다. 한 가지 예가 소프트웨어 불법 복제입니다. 포레스터 그룹 (Forrester Group)의 2018 BSA 글로벌 소프트웨어 조사 (Global Software Survey)에 따르면 전 세계적으로 불법 복제는 여전히 문제가되고 있으며, 개인용 컴퓨터 소프트웨어의 37 %는 라이센스가 없다. 그러나 기업에서는 그다지 문제가되지 않습니다. 해적판 소프트웨어의 악성 코드는 연간 약 3 천 9 백 9 십억 달러의 비용이 들기 때문에 라이센스가 부여 된 소프트웨어를 사용하는 것이 경제적입니다. 사실 적절한 소프트웨어 관리를 통해 기업은 연간 11 %의 수익을 올릴 수 있습니다.

데이터 보호 및 개인 정보

고객 및 직원 정보가 대중에게 노출되거나 해킹 당하지 않도록 최선을 다하는 것이 아무리 생각할 수도 있습니다. 그러나 디지털 정보가 부지불 떨기로부터 안전한지 확인하는 데 얼마의 돈이 들었는지 알기가 어려워 질 수 있습니다. 방화벽, 암호화 기술, 가상 사설망 또는 VPN은 물론 데이터 시스템이 올바르게 구성되도록 보안 전문가를 고용함으로써 상당한 자본 투자가 필요할 수 있습니다.

포레스트의 윤리 및 소비자 행동에 관한 Forrester의 2018 년 보고서에 따르면 미국 성인의 79 %가 온라인 개인 정보 및 보안을 보호하기 위해 도구를 사용합니다. Forrester는 또한 캘리포니아의 소비자 개인 정보 보호법 (Consumer Privacy Act) 및 GDPR과 같은 더 많은 규제를 기대하고 있지만 데이터를 보호하거나 데이터를 책임감있게 사용하지 않는 회사에 대한 소비자의 지속적인 푸시 백 (push back)을 계속하고 있습니다.

Ransoms 및 Ransomware

최근 정보 기술의 윤리적 문제는 ransomware 공격의 등장으로 더욱 복잡해졌습니다. 해커는 컴퓨터 네트워크에 침투하여 컴퓨터 네트워크를 제어 한 다음 해지 할 코드를 지불해야합니다. 몸값을 지불하지 않으면 네트워크에 저장된 모든 데이터가 손실 될 수 있습니다. 데이터를 백업 한 경우에도 네트워크 복원에 소요되는 시간과 비용이 몸값 지불 비용보다 클 수 있습니다. 몸값을 지불하는 사업주와 IT 관리자는 해커가 다른 조직에 똑같은 일을하도록 권장한다는 것을 알고 있습니다.

2016 년 라이드 공유 서비스 인 Uber는 Uber 드라이버 및 고객에 대한 정보를 포함하여 5 천 7 백만 명의 개인 데이터에 액세스 한 해커에게 10 만 달러의 몸값을 지불했습니다. 회사가 겪었던 윤리적, 법적 딜레마는 대중에게 무슨 일이 일어 났는지 알려줄 지 여부였다. 몸값 지불이 계시 된 것은 2017 년 경영진이 바뀌기 전까지는 아니었다. 그 결과 국회 청문회와 1 억 4 천 8 백만 달러의 벌금을 부과했다.

윤리 및 인공 지능

매년 인공 지능이나 인공 지능이 발전함에 따라 이러한 기술을 사용하는 기업은 새로운 윤리적 딜레마에 직면하게됩니다. 예를 들어 고객을 돕기 위해 웹 사이트에서 챠트 봇을 사용하기로 결정한 경우 해당 고객으로부터 수집 할 정보와 사용 방법을 결정해야 할뿐만 아니라 고객에게 그들이 인간이 아닌 프로그램과 상호 작용하고 있다고 말하십시오.

다른 경우에는 AI를 둘러싼 딜레마가 프로그래밍 방식을 중심으로 돌아갑니다. 인간의 취향과 심지어 편견은 소프트웨어의 작동 방식에 영향을 줄 수 있습니다. 한 예로, 수감자의 가석방 자격을 결정하는 데 도움을주기 위해 위스콘신 정정 국 (the Corrections)에서 사용한 인공 지능 도구는 아프리카 계 미국인 및 히스패닉계 남성보다 백인 남성에 대한 뚜렷한 선호를 보였습니다. 편견은 프로그래머에 의해 소프트웨어에 기록되었습니다.

아마도 윤리적 딜레마의 궁극적 인면은자가 운전 자동차를 프로그래밍하는 방법에서 찾을 수 있습니다. 충돌 가능성이있는 경우 소프트웨어를 설계하는 프로그래머가 누구를 저장할지 결정해야합니다. 메르세데스 벤츠 (Mercedes-Benz)는 2016 년에 헤드 라인을 만들었습니다. AI 프로토 타입에서 운전자를 항상 보호하기로 결정했을 때 - 곧 다가오는 트럭쪽으로 조종하는 대신 보행자 그룹을 경주하는 것을 의미한다고해도 말입니다.

인기 게시물