비윤리적인 AI Whisperer(Padma Chukka)의 비용이 많이 드는 결과

비윤리적인 AI Whisperer(Padma Chukka)의 비용이 많이 드는 결과

                         비윤리적인 AI 속삭이는 사람(Padma Chukka) PlatoBlockchain 데이터 인텔리전스의 값비싼 결과. 수직 검색. 일체 포함.

예.. 저는 AI 애플리케이션에 대해 이야기하고 있습니다. 우리의 무수한 AI 애플리케이션과 앞으로 인간에게 무엇을 해야 하는지 속삭이는 것… 그것을 하는 방법…하지만 AI 챗봇과 상호 작용하는 속삭이는 사람에 대해서는 아닙니다.

에 따르면 IDC 예측에 따르면, 글로벌 AI 시장은 500년까지 2024억 달러 이상에 달할 수 있습니다. 이는 50년보다 2021% 이상 증가한 것입니다. 이는 우리가 비즈니스 실험에서 AI가 모든 규모의 기업 전략의 필수적인 부분임을 받아들이는 단계로 이동했음을 나타냅니다. 더 나은 결정을 기반으로 행동을 촉발하기 위해 데이터를 통찰력으로 전환하는 데 필요한 도구입니다. 아무도 비즈니스 위험을 줄이고 혁신을 통해 ROI를 증폭하기 위한 AI의 이점에 대해 논의하지 않습니다. 그러나 항상 그렇듯이...하지만... 편향되지 않은 AI는 말처럼 쉽지 않습니다.

비즈니스에 중요한 이러한 AI 모델은 가시성과 책임성을 가지고 안정적으로 작동해야 합니다. 그렇지 않으면 이 경우 실패는 회사의 현금 흐름에 영향을 미치고 법적 문제로 이어질 수도 있는 심각한 결과를 초래합니다. 이를 피하는 유일한 방법은 "이 AI 애플리케이션/워크로드가 윤리적으로 구축되었음을 증명할 수 있습니까?"라는 한 가지 질문에 답하는 자동화 및 투명성입니다. Aka… 어떻게 통치합니까? 그리고 그것이 지속적으로 관리되고 있다는 것을 증명할 수 있습니까?

기업들이 좋아하는 곳입니다 IBM 조직의 AI 활동을 지시, 관리 및 모니터링하는 전체 프로세스를 조율하기 위해 AI 거버넌스에 투자했습니다. 주요 임무는 모든 사업부가 선제적 상태를 유지하고 거버넌스 프레임워크를 이니셔티브에 주입하여 윤리 원칙 및 규정을 준수하는 능력을 강화하는 것입니다. 특히 은행 및 금융 서비스와 같은 규제 산업은 규제 기관을 만족시킬 수 있는 증거를 제공해야 합니다.

디지털 트랜스포메이션의 엄청난 압력으로 인해 금융 서비스 부문에서 AI의 영향력이 기하급수적으로 증가하고 있습니다. 말했듯이 다음과 같은 이유로 말보다 쉽습니다.

1. 자신 있게 AI 앱 운영:

경우에 따라 명확성 및 목록화 없이 모델이 구축됩니다. 말할 필요도 없이 전체 수명 주기를 추적하기 위해 모니터링이 중간에 사라집니다. 은행이 레거시 애플리케이션으로 어려움을 겪고 있는 동안 투명성과 설명 가능성을 창출하는 프로세스를 자동화하는 것이 더 어려워졌고 결과적으로 블랙박스가 되었습니다. 결정이 내려진 이유/방법은 아무도 모릅니다. 레거시 앱과 얽힌 새로운 앱은 품질과 인지할 수 없는 위험으로 인해 막대한 ROI가 연관되어 있지만 일광을 볼 수 없습니다.

두 번째 요점은 평판 위험 관리입니다.

2. 전체 위험과 함께 평판 위험 관리

나는 물어 보았다 #chatGPT 및 #음유 시인 – Padma Chukka는 누구입니까? #ChatGPT 질문을 여러 방법으로 변경해도 답변을 거부했습니다. 그럼에도 불구하고 Bard는 내 LinkedIn 프로필을 포함하여 자세한 답변을 제공했습니다. 하지만 데이터는 내 이전 프로필이 스피커 바이오스의 일부로 여전히 존재하는 여러 사이트에서 가져온 것입니다. 그 시점부터 나는 아직 음유 시인을 열지 않았습니다. 그렇게 빨리, 나는 일명 꺼져버렸습니다 – 평판 위험. 데이터가 일치하지 않을 수 있음을 깨달았을 때 간단한 챗봇을 끌 수 있다고 가정합니다. 중요한 비즈니스를 수행하기 위해 AI 주입 애플리케이션을 구입하기로 결정하기 전에 어떻게 확신하지 못할 수 있습니까? 평판 위험은 때때로 회사가 잊는 필수 요소입니다. 평판 위험을 정량화하면 능동적이지 않을 경우 비즈니스에 막대한 영향을 미칠 수 있습니다.

복잡성을 더하기 위해 세 번째는…

3. 변화하는 AI 규제에 기업은 어떻게 대응해야 할까?

평판 위험을 피하기 위해 성공적이고 책임감 있는 AI 팀은 모든 지역 및 글로벌 규정을 인식하고 순간 통지와 함께 틱톡 비디오처럼 떨어뜨려야 합니다. 그리고 비준수는 궁극적으로 제안된 EU AI 법과 같은 작업과 관련하여 조직에 수백만 달러의 벌금을 부과할 수 있습니다. 최대 30천만 유로 또는 회사 글로벌 수익의 6%인 OUCH가 될 수 있습니다.

처음부터 모든 것이 장밋빛일 필요는 없습니다. 무서운 상황에서 장밋빛 상황으로 변신하는 방법을 알고 있는 한 말입니다.

당연히 사람, 프로세스 및 기술입니다. 따라서 먼저 목표를 기반으로 이니셔티브를 교육, 지시 및 모니터링할 교차 기능 관리 기구를 만듭니다. 그런 다음 현재 AI 기술 및 프로세스를 벤치마킹하고 격차를 이해한 다음 미래 보장을 위해 수정합니다. 그런 다음 규정 준수 요구 사항에 따라 일련의 자동화된 거버넌스 워크플로로 돌아갑니다. 마지막으로, 허용 가능한 임계값이 가까워지면 소유자에게 경고하도록 모니터링 시스템을 설정합니다. 기술 측면에서 잘 설계되고 잘 실행되고 잘 연결된 AI에는 여러 빌딩 블록이 필요합니다. 그리고 일부 또는 모든 기능이 있는지 확인하십시오.

· 다양한 배포에 걸친 데이터 무결성

· AI 거버넌스를 준수하는 개방적이고 유연한 기존 도구 사용

· 추적하는 방법인 개인 정보 제어 기능이 있는 셀프 서비스 액세스를 제공해야 합니다.

· 자동화 및 AI 거버넌스를 염두에 두고 설계

· 사용자 정의 가능한 워크플로를 통해 여러 이해 관계자를 연결하고 사용자 정의할 수 있습니다.

우리가 앱을 무서운 것에서 장미빛으로 바꾸면…다음 질문은 어떻게 증명하느냐입니다…

첫째, 회사의 AI 원칙으로 돌아가서 이를 기반으로 구축하되 특히 금융 서비스와 같은 규제 환경에서 규정을 준수하고 있음을 "보여주어야" 합니다. 금융 서비스는 NIST 800-53에 불만을 제기해야 하므로 NIST AI 위험 관리 프레임워크(AI RMF). NIST는 Govern, Map, Measure 및 Manage라는 네 가지 제품군의 컨트롤을 제안했습니다. 이를 지침 요소로 사용하고 응용 프로그램을 스트레스 테스트하여 수정하고 모니터링할 격차를 식별합니다.

비윤리적인 AI 속삭이는 사람(Padma Chukka) PlatoBlockchain 데이터 인텔리전스의 값비싼 결과. 수직 검색. 일체 포함.

IBM은 모델을 생산에 투입하기 전에 검증할 수 있으며 공정성, 품질 및 드리프트에 대해 모니터링할 수 있습니다. 또한 규제 기관 및 감사 기관의 요구 사항을 충족하기 위해 모델의 동작 및 예측을 설명하는 문서를 제공할 수 있습니다. 이러한 설명은 가시성을 제공하고 감사의 어려움을 완화하며 투명성과 가능한 위험을 판단하는 능력을 높일 수 있습니다.

 자신있게 AI 속삭임을 들어보세요!

#금융 서비스 #책임있는아이 #윤리적 #NISTAIRMF

타임 스탬프 :

더보기 핀텍스라