의 마법을 공유하기 위해 달·이 2 광범위한 청중과 함께 강력한 이미지 생성 모델과 관련된 위험을 줄여야 했습니다. 이를 위해 다양한 난간 생성된 이미지가 당사의 콘텐츠 정책. 이 게시물은 사전 훈련 완화, DALL·E 2가 학습하는 데이터를 직접 수정하는 이러한 가드레일의 하위 집합입니다. 특히, DALL·E 2는 인터넷에서 캡션이 있는 수억 개의 이미지에 대해 학습되며, 모델이 학습하는 내용을 변경하기 위해 이러한 이미지 중 일부를 제거하고 가중치를 다시 적용합니다.
이 게시물은 XNUMX개의 섹션으로 구성되어 있으며 각각 다른 사전 교육 완화를 설명합니다.
- 첫 번째 섹션에서는 DALL·E 2의 훈련 데이터 세트에서 폭력적이고 성적인 이미지를 어떻게 걸러냈는지 설명합니다. 이러한 완화 기능이 없으면 모델은 메시지가 표시될 때 그래픽 또는 노골적인 이미지를 생성하는 방법을 학습하고 겉보기에 무해한 프롬프트에 대한 응답으로 이러한 이미지를 의도하지 않게 반환할 수도 있습니다.
- 두 번째 섹션에서는 훈련 데이터 필터링이 편향을 증폭할 수 있다는 것을 발견하고 이 효과를 완화하는 기술을 설명합니다. 예를 들어, 이러한 완화 없이 필터링된 데이터에 대해 훈련된 모델이 원본 데이터 세트에서 훈련된 모델에 비해 남성을 묘사하는 더 많은 이미지와 여성을 묘사하는 더 적은 이미지를 생성하는 경우가 있음을 확인했습니다.
- 마지막 섹션에서는 DALL·E 2와 같은 모델이 새로운 이미지를 생성하기보다 훈련된 이미지를 재현할 수 있다는 것을 발견한 암기 문제로 넘어갑니다. 실제로 우리는 이것이 이미지 역류 데이터 세트에서 여러 번 복제된 이미지로 인해 발생하며 데이터 세트의 다른 이미지와 시각적으로 유사한 이미지를 제거하여 문제를 완화합니다.
그래픽 및 명시적 교육 데이터 줄이기
학습 데이터는 학습된 모델의 기능을 형성하므로 데이터 필터링은 바람직하지 않은 모델 기능을 제한하는 강력한 도구입니다. 우리는 DALL·E 2를 훈련하기 전에 분류기를 사용하여 데이터 세트에서 이러한 범주의 이미지를 필터링함으로써 노골적인 폭력을 묘사하는 이미지와 성적인 콘텐츠를 묘사하는 두 가지 범주에 이 접근 방식을 적용했습니다. 우리는 이러한 이미지 분류기를 사내에서 훈련시켰고 계속 연구하고 있습니다. 훈련된 모델에 대한 데이터 세트 필터링의 효과.
이미지 분류기를 훈련하기 위해 이전에 훈련 데이터를 필터링하는 데 사용한 접근 방식을 재사용했습니다. 활주. 이 접근 방식의 기본 단계는 다음과 같습니다. 먼저 레이블을 지정하려는 이미지 범주에 대한 사양을 만듭니다. 둘째, 우리는 각 범주에 대해 수백 개의 긍정적이고 부정적인 예를 수집합니다. 셋째, 능동적 학습 절차를 사용하여 더 많은 데이터를 수집하고 정밀도/재현율 트레이드오프를 개선합니다. 마지막으로 정밀도보다 재현율을 선호하는 보수적인 분류 임계값을 사용하여 전체 데이터 세트에 대해 결과 분류기를 실행합니다. 이러한 임계값을 설정하기 위해 모든 나쁜 모든 데이터에서 떠나는 것보다 좋은 데이터. 이것은 우리가 나중에 새로운 것을 가르치기 위해 더 많은 데이터로 모델을 항상 미세 조정할 수 있기 때문입니다. 그러나 모델이 이미 학습한 것을 잊게 하는 것은 훨씬 어렵습니다.
활성 학습 단계에서 우리는 잠재적으로 어렵거나 잘못 분류된 이미지에 대한 사람의 레이블을 수집하여 분류기를 반복적으로 개선했습니다. 특히, 우리는 두 가지 능동 학습 기술을 사용하여 데이터 세트(레이블이 지정되지 않은 수억 개의 이미지가 포함됨)에서 이미지를 선택하여 레이블을 지정하기 위해 인간에게 제공했습니다. 먼저 분류기의 위양성 비율(즉, 양성 이미지를 폭력적이거나 성적인 것으로 잘못 분류하는 빈도)을 줄이기 위해 현재 모델이 양성으로 분류한 이미지에 사람의 레이블을 할당했습니다. 이 단계가 잘 작동하도록 분류 임계값을 거의 100% 재현율로 조정했지만 오탐률은 높습니다. 이런 식으로 라벨러는 대부분 진정으로 부정적인 경우에 라벨을 붙였습니다. 이 기술은 가양성을 줄이고 라벨러가 잠재적으로 유해한 이미지를 볼 필요성을 줄이는 데 도움이 되지만 현재 모델이 누락된 긍정적인 사례를 찾는 데는 도움이 되지 않습니다.
분류기의 위음성 비율을 줄이기 위해 두 번째 능동 학습 기술인 최근접 이웃 검색을 사용했습니다. 특히, 모델이 음성으로 잘못 분류하는 경향이 있는 현재 레이블이 지정된 데이터 세트에서 양성 샘플을 찾기 위해 다중 교차 검증을 실행했습니다. 그런 다음 지각 기능 공간에서 이러한 샘플의 가장 가까운 이웃에 대해 레이블이 지정되지 않은 이미지의 대규모 컬렉션을 스캔하고 발견된 이미지에 사람의 레이블을 할당했습니다. 우리의 컴퓨팅 인프라 덕분에 분류기 훈련과 최근접 이웃 검색을 모두 많은 GPU로 간단하게 확장하여 활성 학습 단계가 몇 시간 또는 며칠이 아닌 몇 분에 걸쳐 수행되도록 했습니다.
데이터 필터의 효율성을 확인하기 위해 동일한 하이퍼파라미터로 두 개의 GLIDE 모델을 훈련했습니다. 하나는 필터링되지 않은 데이터에 대해, 다른 하나는 필터링 후 데이터셋에 대해 훈련했습니다. 우리는 이전 모델을 필터링되지 않은 모델, 후자는 필터링된 모델. 예상대로 필터링되지 않은 모델은 일반적으로 이러한 종류의 콘텐츠 요청에 대한 응답으로 덜 노골적이거나 노골적인 콘텐츠를 생성한다는 것을 발견했습니다. 그러나 데이터 필터링의 예기치 않은 부작용도 발견했습니다. 특정 인구 통계에 대한 모델의 편향을 생성하거나 증폭했습니다.
데이터 필터로 인한 편향 수정
생성 모델은 편향을 포함하여 훈련 데이터의 분포를 일치시키려고 합니다. 결과적으로 훈련 데이터를 필터링하면 다운스트림 모델에서 편향을 생성하거나 증폭할 가능성이 있습니다. 일반적으로 원본 데이터세트의 편향을 수정하는 것은 우리가 계속 연구해야 하는 어려운 사회공학적 작업이며 이 게시물의 범위를 벗어납니다. 여기서 다루는 문제는 특히 데이터 필터링 자체로 인해 발생하는 편향의 증폭입니다. 우리의 접근 방식을 통해 필터링된 모델이 배우기 필터링되지 않은 모델보다 편향되어 본질적으로 데이터 필터링으로 인한 분포 이동을 줄입니다.
필터링으로 인한 편향 증폭의 구체적인 예로 “a ceo”라는 프롬프트를 생각해 보십시오. 필터링되지 않은 모델이 이 프롬프트에 대한 이미지를 생성할 때 여성보다 남성의 이미지를 더 많이 생성하는 경향이 있었고 이 편향의 대부분은 현재 훈련 데이터를 반영할 것으로 예상합니다. 그러나 필터링된 모델을 통해 동일한 프롬프트를 실행했을 때 편향이 증폭된 것으로 나타났습니다. 세대는 거의 전적으로 남성의 이미지였습니다.
우리는 편향 증폭의 이 특정 사례가 두 곳에서 비롯된 것이라고 가정합니다. 첫째, 원래 데이터 세트에서 여성과 남성이 거의 동등한 표현을 갖고 있더라도 데이터 세트는 보다 성적인 맥락에서 여성을 제시하는 쪽으로 편향될 수 있습니다. 둘째, 분류자 자체가 구현 또는 클래스 정의로 인해 편향될 수 있습니다. 데이터 수집 및 유효성 검사 단계에서 그렇지 않다는 것을 확인하려는 노력에도 불구하고. 이러한 두 가지 효과로 인해 필터는 남성보다 여성의 이미지를 더 많이 제거할 수 있으며, 이는 모델이 훈련에서 관찰하는 성별 비율을 변경합니다.
필터로 인한 편향을 더 철저하게 조사하기 위해 우리는 데이터 필터가 다양한 개념에 대한 편향에 얼마나 영향을 미치는지 측정하는 방법을 원했습니다. 특히, 폭력 및 성적인 콘텐츠 필터는 순전히 이미지 기반이지만 데이터 세트의 다중 모드 특성을 통해 이러한 필터가 텍스트에 미치는 영향을 직접 측정할 수 있습니다. 모든 이미지에는 텍스트 캡션이 수반되기 때문에 필터링 및 필터링되지 않은 데이터 세트에서 손으로 선택한 키워드의 상대적 빈도를 확인하여 필터가 주어진 개념에 얼마나 영향을 미쳤는지 추정할 수 있었습니다.
이를 실제로 적용하기 위해 Apache Spark를 사용하여 필터링된 데이터세트와 필터링되지 않은 데이터세트 모두의 모든 캡션에 대해 소수의 키워드(예: "부모", "여성", "아이")의 빈도를 계산했습니다. 데이터 세트에는 수억 개의 텍스트-이미지 쌍이 포함되어 있지만 컴퓨팅 클러스터를 사용하면 이러한 키워드 빈도를 계산하는 데 몇 분밖에 걸리지 않았습니다.
키워드 빈도를 계산한 후 데이터 세트 필터가 실제로 특정 키워드의 빈도를 다른 것보다 더 많이 왜곡했음을 확인할 수 있었습니다. 예를 들어 필터는 "여자"라는 단어의 빈도를 14% 줄인 반면 "남자"라는 단어의 빈도는 6%만 줄였습니다. 이는 두 데이터 세트에서 훈련된 GLIDE 모델에서 샘플링하여 이미 일화적으로 관찰한 것을 대규모로 확인했습니다.
필터로 인한 편향을 측정하기 위한 프록시가 있으므로 이를 완화할 방법이 필요했습니다. 이 문제를 해결하기 위해 우리는 필터링되지 않은 이미지의 분포와 더 잘 일치하도록 필터링된 데이터 세트에 가중치를 다시 부여하는 것을 목표로 했습니다. 이 아이디어를 설명하기 위한 장난감 예로, 데이터 세트가 고양이 사진 50%와 개 사진 50%로 구성되어 있지만 데이터 필터가 개의 75%를 제거하지만 고양이는 50%만 제거한다고 가정합니다. 최종 데이터 세트는 고양이 ⅔개, 개 ⅓개이며 이 데이터 세트에서 훈련된 우도 기반 생성 모델은 개보다 고양이 이미지를 더 많이 생성할 수 있습니다. 우리는 모든 개의 이미지를 두 번 반복하는 효과를 모방하여 개의 모든 이미지에 대한 훈련 손실을 2로 곱하여 이 불균형을 수정할 수 있습니다. 이 접근 방식을 실제 데이터 세트 및 모델에 대해 대부분 자동으로 확장할 수 있다는 것이 밝혀졌습니다. 즉, 가중치를 재조정하려는 기능을 직접 선택할 필요가 없습니다.
에서 사용하는 접근 방식과 유사한 특수 분류기의 확률을 사용하여 필터링된 데이터 세트의 이미지에 대한 가중치를 계산합니다. Choi et al. (2019). 이 분류기를 훈련시키기 위해 우리는 두 데이터세트에서 균일하게 이미지를 샘플링하고 이미지가 어떤 데이터세트에서 왔는지 예측합니다. 특히 이 모델은 다음을 예측합니다. P(필터링되지 않음|이미지), 사전에 주어진 P(필터링되지 않음) = 0.5. 실제로, 우리는 이 모델이 너무 강력하기를 원하지 않습니다. 그렇지 않으면 처음부터 필터에 의해 구현된 정확한 기능을 학습할 수 있습니다. 대신에 특정 이미지가 필터링되는지 여부에 대해 확신할 수 없는 상태에서 필터의 영향을 받는 광범위한 범주를 캡처하여 원래 데이터 필터보다 모델이 더 매끄럽기를 원합니다. 이를 위해 우리는 작은 위에 선형 프로브를 훈련했습니다. 쥐다 모델입니다.
이미지가 필터링되지 않은 데이터 세트에서 나올 확률을 예측하는 분류기가 있으면 이 예측을 이미지의 가중치로 변환해야 합니다. 예를 들어 P(필터링되지 않음|이미지) = 0.8. 이는 샘플이 필터링되지 않은 데이터에서 필터링된 데이터보다 4배 더 많이 발견될 가능성이 있음을 의미하며 가중치 4는 불균형을 수정해야 합니다. 더 일반적으로 무게를 사용할 수 있습니다. P(필터링되지 않음|이미지)/P(필터링됨|이미지).[1]
이 가중치 재조정 방식이 실제로 증폭된 편향을 얼마나 잘 완화합니까? 새로운 가중치 체계로 이전 필터링된 모델을 미세 조정했을 때 미세 조정된 모델의 동작은 이전에 찾은 편향된 예제에서 필터링되지 않은 모델과 훨씬 더 밀접하게 일치했습니다. 이는 고무적이지만 키워드 기반 편향 휴리스틱을 사용하여 이 완화를 보다 철저하게 평가하고 싶었습니다. 새로운 가중치 체계를 고려하면서 키워드 빈도를 측정하기 위해 필터링된 데이터 세트에 있는 키워드의 모든 인스턴스를 포함하는 샘플의 가중치로 간단히 가중치를 적용할 수 있습니다. 이를 통해 필터링된 데이터 세트의 샘플 가중치를 반영하는 새로운 키워드 빈도 세트를 얻습니다.
우리가 확인한 대부분의 키워드에서 가중치 재조정 방식은 필터링으로 인한 빈도 변화를 줄였습니다. "남자"와 "여자"의 이전 예에서 상대 빈도 감소는 1% 및 -1%가 된 반면 이전 값은 각각 14% 및 6%였습니다. 이 메트릭은 실제 필터링 편향에 대한 프록시일 뿐이지만 이미지 기반 재가중 체계가 실제로 텍스트 기반 메트릭을 크게 향상시킨다는 것을 확신시켜줍니다.
우리는 부분적으로 모델의 동작에 대한 더 큰 평가와 필터링이 편향 및 기능 개발에 미치는 영향에 대한 조사를 통해 DALL·E 2에 남아 있는 편향을 계속 조사하고 있습니다.
이미지 역류 방지
우리는 DALL·E 2의 내부 전임자가 때때로 훈련 이미지를 그대로 재현하는 것을 관찰했습니다. DALL·E 2가 기본적으로 기존 이미지의 일부를 "연결"하는 것이 아니라 독창적이고 고유한 이미지를 생성하기를 원하기 때문에 이 동작은 바람직하지 않습니다. 또한 교육 이미지를 그대로 재생하면 저작권 침해, 소유권 및 개인 정보 보호에 관한 법적 문제가 제기될 수 있습니다(교육 데이터에 사람의 사진이 있는 경우).
이미지 역류 문제를 더 잘 이해하기 위해 자주 이미지가 중복되는 프롬프트 데이터 세트를 수집했습니다. 이를 위해 훈련된 모델을 사용하여 훈련 데이터 세트에서 50,000개의 프롬프트에 대한 이미지를 샘플링하고 해당 훈련 이미지와 지각적 유사성을 기준으로 샘플을 정렬했습니다. 마지막으로 상위 일치 항목을 손으로 검사하여 총 50개의 프롬프트에서 몇 백 개의 진정한 중복 쌍만 찾았습니다. 역류율이 1% 미만으로 보이지만 위에서 언급한 이유로 역류율을 0으로 낮출 필요가 있다고 느꼈습니다.
역류된 이미지의 데이터 세트를 연구했을 때 두 가지 패턴을 발견했습니다. 첫째, 이미지는 거의 모든 단순한 벡터 그래픽으로 정보 내용이 적기 때문에 외우기 쉬웠을 것입니다. 둘째, 더 중요한 것은 모든 이미지가 훈련 데이터 세트에서 거의 중복된 것이 많다는 것입니다. 예를 들어 1시를 표시하는 시계처럼 보이는 벡터 그래픽이 있을 수 있지만 2시와 3시 등을 표시하는 동일한 시계가 포함된 훈련 샘플을 발견할 수 있습니다. 우리는 이것을 깨달았고, 실제로 모든 역류된 이미지가 데이터 세트에서 지각적으로 유사한 중복을 가지고 있음을 확인하기 위해 분산된 최근접이웃 검색을 사용했습니다. 기타 일 큰 언어 모델에서 유사한 현상을 관찰하여 데이터 중복이 암기와 밀접하게 관련되어 있음을 발견했습니다.
위의 결과는 데이터 세트의 중복을 제거하면 역류 문제를 해결할 수 있음을 시사합니다. 이를 달성하기 위해 우리는 신경망을 사용하여 유사해 보이는 이미지 그룹을 식별한 다음 각 그룹에서 하나의 이미지만 남기고 모두 제거할 계획이었습니다.[2] 그러나 이를 위해서는 각 이미지에 대해 해당 이미지가 데이터 세트의 다른 모든 이미지와 중복되는지 확인해야 합니다. 전체 데이터 세트에는 수억 개의 이미지가 포함되어 있으므로 모든 중복 항목을 찾으려면 순진하게 수백 조 개의 이미지 쌍을 확인해야 합니다. 기술적으로는 이것이 가능하지만, 특히 대규모 컴퓨팅 클러스터에서는 적은 비용으로 거의 비슷한 효과를 발휘하는 훨씬 더 효율적인 대안을 찾았습니다.
중복 제거를 수행하기 전에 데이터세트를 클러스터링하면 어떤 일이 발생하는지 생각해 보세요. 인근 샘플은 종종 동일한 클러스터에 속하므로 대부분의 중복 쌍은 클러스터 결정 경계를 넘지 않습니다. 그런 다음 클러스터 외부의 중복 항목을 확인하지 않고 각 클러스터 내의 샘플을 중복 제거할 수 있었으며 전체 중복 쌍 중 일부만 누락되었습니다. 이는 더 이상 모든 단일 이미지 쌍을 확인할 필요가 없기 때문에 순진한 접근 방식보다 훨씬 빠릅니다.[3] 데이터의 작은 하위 집합에 대해 이 접근 방식을 경험적으로 테스트했을 때 다음을 사용할 때 모든 중복 쌍의 85%가 발견되었습니다. K = 1024 클러스터.
위 알고리즘의 성공률을 개선하기 위해 우리는 한 가지 주요 관찰을 활용했습니다. 데이터 세트의 서로 다른 무작위 하위 집합을 클러스터링할 때 결과 클러스터 결정 경계는 종종 상당히 다릅니다. 따라서 중복 쌍이 데이터의 한 클러스터링에 대해 클러스터 경계를 넘으면 동일한 쌍이 다른 클러스터링의 단일 클러스터에 속할 수 있습니다. 더 많은 클러스터링을 시도할수록 주어진 중복 쌍을 발견할 가능성이 높아집니다. 실제로, 우리는 97개의 클러스터링을 사용하기로 결정했습니다. 즉, XNUMX개의 서로 다른 클러스터의 조합에서 각 이미지의 복제본을 검색합니다. 실제로 이것은 데이터의 하위 집합에서 모든 중복 쌍의 XNUMX%를 찾았습니다.
놀랍게도 데이터 세트의 거의 XNUMX분의 XNUMX이 중복 제거로 제거되었습니다. 우리가 발견된 거의 중복되는 쌍을 보았을 때, 그들 중 많은 것이 의미 있는 변경을 포함했습니다. 위의 시계 예를 상기하십시오. 데이터 세트에는 하루 중 다른 시간에 동일한 시계의 많은 이미지가 포함될 수 있습니다. 이러한 이미지는 모델이 이 특정 시계의 모양을 외우도록 만들 수 있지만 모델이 시계의 시간을 구별하는 방법을 배우는 데 도움이 될 수도 있습니다. 제거된 데이터의 양을 감안할 때 이와 같은 이미지를 제거하면 모델의 성능이 저하되지 않을까 걱정했습니다.
중복 제거가 모델에 미치는 영향을 테스트하기 위해 동일한 하이퍼파라미터로 두 모델을 훈련했습니다. 하나는 전체 데이터 세트에 대한 것이고 다른 하나는 데이터 세트의 중복 제거 버전에 대한 것입니다. 모델을 비교하기 위해 원래 GLIDE 모델을 평가하는 데 사용한 것과 동일한 인간 평가를 사용했습니다. 놀랍게도, 우리는 인간 평가자가 약간 선호하는 중복 제거된 데이터에 대해 훈련된 모델은 데이터 세트에 있는 많은 양의 중복 이미지가 실제로 성능을 저하시키는 것으로 나타났습니다.
중복 제거된 데이터에 대해 모델을 훈련시킨 후 이전에 훈련 데이터 세트에서 50개 이상의 프롬프트를 수행했던 역류 검색을 다시 실행했습니다. 우리는 훈련 데이터 세트의 이미지에 대한 정확한 프롬프트가 주어졌을 때 새 모델이 훈련 이미지를 역류시키지 않는다는 것을 발견했습니다. 이 테스트를 한 단계 더 발전시키기 위해 생성된 50k 이미지 각각에 대해 전체 교육 데이터 세트에 대해 최근접 이웃 검색을 수행했습니다. 이런 식으로 우리는 주어진 프롬프트와 관련된 것과 다른 이미지를 역류하는 모델을 포착할 수 있다고 생각했습니다. 이 더 철저한 확인에도 불구하고 우리는 이미지 역류 사례를 발견하지 못했습니다.
다음 단계
위에서 논의한 모든 완화는 DALL·E 2와 관련된 위험을 줄이려는 목표를 향한 상당한 진전을 나타내지만 각 완화는 여전히 개선할 여지가 있습니다.
- 더 나은 사전 훈련 필터를 사용하면 더 많은 데이터에 대해 DALL·E 2를 훈련할 수 있고 잠재적으로 모델의 편향을 더 줄일 수 있습니다. 우리의 현재 필터는 많은 오탐을 희생시키면서 낮은 실패율을 위해 조정됩니다. 결과적으로 필터링된 이미지의 대부분이 콘텐츠 정책을 전혀 위반하지 않음에도 불구하고 전체 데이터 세트의 약 5%를 필터링했습니다. 필터를 개선하면 이 훈련 데이터의 일부를 회수할 수 있습니다.
- 편견은 시스템 개발 및 배포의 여러 단계에서 도입되고 잠재적으로 증폭됩니다. DALL·E 2와 같은 시스템의 편향과 이러한 편향으로 인한 피해를 평가하고 완화하는 것은 우리가 더 광범위한 사명의 일환으로 OpenAI에서 계속 연구하는 중요한 학제 간 문제입니다. 이에 대한 우리의 작업에는 문제를 더 잘 이해하기 위한 평가 작성, 새로운 데이터 세트 큐레이팅, 인간 피드백 및 미세 조정과 같은 기술을 적용하여 보다 강력하고 대표적인 기술을 구축하는 것이 포함됩니다.
- 딥 러닝 시스템에서 암기와 일반화를 계속 연구하는 것도 중요합니다. 중복 제거는 암기 방지를 위한 좋은 첫 단계이지만 DALL·E 2와 같은 모델이 훈련 데이터를 암기하는 이유 또는 방법에 대해 배울 수 있는 모든 것을 알려주지는 않습니다.
- 000
- 2019
- a
- 소개
- 계정
- 달성
- 가로질러
- 활동적인
- 주소
- 에 영향을 미치는
- 연산
- All
- 허용
- 수
- 이미
- 대안
- 항상
- 양
- 다른
- 등장
- 적용된
- 적용
- 접근
- 약
- 할당 된
- 관련
- 청중
- 때문에
- 전에
- 존재
- 더 나은
- 사이에
- 그 너머
- 빌드
- 건물
- 기능
- 자막
- 케이스
- 가지 경우
- 잡아라
- 범주
- 발생
- 어떤
- 이전 단계로 돌아가기
- 확인
- 왼쪽 메뉴에서
- 수업
- 분류
- 분류 한
- 시계
- 수집
- 비교
- 계산
- 컴퓨팅
- 개념
- 고려
- 이 포함되어 있습니다
- 함유량
- 문맥
- 계속
- 저작권
- 저작권 침해
- 동
- 수
- 만들
- 만든
- 만들기
- 결정적인
- Current
- 현재
- 데이터
- 일
- 일
- 결정
- 깊은
- 인구 통계
- 전개
- 설명
- 무례
- 개발
- 다른
- 어려운
- 직접
- 발견
- 발견
- 거리
- 분산
- 분포
- 아래 (down)
- 중복
- ...동안
- 마다
- 효과
- 효과적으로
- 유효성
- 효과
- 효율적인
- 노력
- 격려의
- 특히
- 본질적으로
- 견적
- 등
- 평가
- 모두
- 예
- 예
- 독점적으로
- 현존하는
- 기대
- 기대하는
- 빠른
- 특색
- 특징
- 피드백
- 그림
- 필터링
- 필터
- 최종적으로
- 발견
- 먼저,
- 수정
- 집중
- 다음
- 발견
- 에
- 가득 찬
- 기능
- 추가
- 모임
- 성별
- 일반
- 일반적으로
- 생성
- 생성
- 세대
- 세대
- 생성적인
- 골
- 좋은
- GPU
- 그래픽
- 그룹
- 여러 떼
- 보장
- 줌
- 도움
- 도움이
- 여기에서 지금 확인해 보세요.
- 높은
- 방법
- 그러나
- HTTPS
- 사람의
- 인간
- 수백
- 생각
- 확인
- 영상
- 형상
- 이행
- 구현
- 중대한
- 개선
- 개선하는
- 개선
- 포함
- 포함
- 포함
- 포함
- 정보
- 인프라
- 예
- 인터넷
- 조사
- 발행물
- IT
- 그 자체
- 키
- 라벨
- 레이블링
- 레이블
- 언어
- 넓은
- 큰
- 배우다
- 배운
- 배우기
- 이용약관
- 아마도
- 보기
- 보고
- 확인
- 표
- 경기
- 의미있는
- 방법
- 측정
- 측정
- 남성 컬렉션
- 수도
- 군
- 수백만
- Mission
- 모델
- 모델
- 배우기
- 가장
- 곱하기
- 자연
- 필요한
- 부정
- 네트워크
- 번호
- 주문
- 최
- 실물
- 기타
- 소유권
- 부품
- 특별한
- 성능
- 실행할 수 있는
- 상
- 개
- 계획
- 정책
- 긍정적인
- 가능한
- 가능성
- 강한
- 연습
- 예측
- 예측
- 제시
- 방지
- 너무 이른
- 개인 정보 보호
- 탐침
- 문제
- 방법
- 생산
- 생산
- 항의
- 대리
- 지구
- 모집
- 도달
- 깨달은
- 이유
- 감소
- 감소
- 감소
- 반영
- 반사
- 나머지
- 제거
- 대표
- 대표
- 대리인
- 요청
- 필요
- 필요
- 응답
- 결과
- return
- 위험
- 달리기
- 같은
- 규모
- 계획
- 검색
- 세트
- 모양
- 공유
- 변화
- 상당한
- 비슷한
- 단순, 간단, 편리
- 이후
- 단일
- 크기
- 작은
- So
- 풀다
- 일부
- 무언가
- 스페이스 버튼
- 특별한
- 구체적으로
- 명세서
- 스플릿
- 단계
- 스타트
- 정해진
- 아직도
- 교육과정
- 성공
- 체계
- 시스템은
- 복용
- 기법
- 기술
- test
- XNUMXD덴탈의
- 따라서
- 일
- 완전히
- 세
- 임계값
- 을 통하여
- 시간
- 시대
- 수단
- 상단
- 에 대한
- Train
- 트레이닝
- 이해
- 노동 조합
- 유일한
- us
- 사용
- 확인
- 여러
- 확인
- 버전
- 원
- 뭐
- 여부
- 동안
- 이내
- 없이
- 여성 컬렉션
- 작업
- 일
- 걱정
- 겠지
- X