

생성형 AI에 대한 Chaos의 접근 방식은 인류의 창의성에 대한 깊은 존중이 그 바탕에 깔려 있습니다. 인간을 대체하는 게 아니라 그 권한과 역량을 한층 더 발전시키면서 크리에이터를 최우선에 두는 책임감 있는 혁신에 주력합니다.
Chaos는 AI가 인간의 창의성을 대체하는 게 아니라 증진시키는 데 쓰여야 한다고 생각합니다. Chaos의 AI 도구는 건축가, 엔지니어, 외주 작업자, 비주얼 아티스트가 저작권과 독창성을 보호하면서 상상력과 효율성을 증폭시킬 수 있도록 필요한 기능을 제공합니다.
생성형 AI가 디자인 및 시각화 분야의 필수 요소로 자리 잡는 가운데 Chaos의 약속은 분명합니다. 크리에이터를 존중하고 지적 재산을 보호하는 한편 그 과정의 모든 단계에서 법적, 그리고 윤리적 선명성을 제공하면서 타협 없는 혁신에 주력할 것입니다.
Chaos의 AI는 공동 창작 플랫폼으로 설계되어 전문가가 통제권을 가지면서 AI의 효용을 마음껏 누릴 수 있게 합니다. 창의성을 저해하는 게 아니라 한층 더 강화하려 합니다.
다음과 같은 방법으로 사려 깊고 책임을 다하는, 크리에이터 중심의 접근 방식을 구사합니다.
Veras 및 Chaos AI Enhancer는 Stable Diffusion을 사용합니다. 이는 LAION-5B에서 가져온 이미지와 캡션의 쌍으로 학습한 모델입니다. LAION-5B는 웹에서 스크랩한 Common Crawl 데이터로부터 파생된, 공개적으로 제공되는 데이터 세트입니다. 다른 모델에서는 상업적 사용에 적합한 오픈 소스, 또는 적절한 라이선스를 취득한 데이터 세트만 사용합니다.
Veras 및 Glyph에서는 익명의 렌더링 및 사용량 데이터를 사용자가 공유를 선택하는 경우에만 수집합니다. 이 기능은 설정 과정에서 비활성화하거나, 또는 Chaos의 IT 구성 가이드를 통해 Veras 및 Glyph 전체에 대해 비활성화할 수 있습니다. AI Enhancer에서는 익명 처리된 입출력 이미지를 QA 및 진단의 목적에 한해 저장합니다.
사용자와의 계약에서 이를 허용하고, 쓰이는 타사 모델 또는 애셋에 대한 규칙을 사용자가 준수하는 경우에 한합니다.
Chaos는 사용자의 결과물에 대한 소유권을 주장하지 않습니다.
Chaos의 AI 도구는 인간의 저작 활동을 장려합니다. 사용자의 입력 데이터를 활용하고 사용자가 시드, 프롬프트, 컨트롤, 결과물을 선택할 수 있게 하는 한편 미국 법률에 따라 저작권을 보호하는 데 필요한 인간의 입력 정보를 보존함으로써 인간의 창작 과정을 능률화합니다.
우리가 설계하는 모든 AI 기능은 혁신의 속도를 늦추지 않으면서 공정, 안전, 책임에 최선을 다하겠다는 우리의 약속을 반영합니다. 이러한 원칙은 주변적인 요소가 아니라, 처음부터 우리의 제품 철학을 형성하는 핵심입니다.
윤리적 학습 데이터.
Chaos는 건축 시각화의 고유한 니즈 해결을 목적으로 하는 엄선된 데이터 세트를 사용하면서 신중하게 학습 데이터를 확보합니다. 공개 웹에서 무차별적으로 가져오지 않는 게 아니라 전문 표준 및 다양한 디자인 감성을 반영하는, 적절한 라이선스가 부여되고 상황에 부합하는 콘텐츠를 사용합니다. 우리의 목표는 진실성을 훼손하지 않으면서 창의성을 자극하는 것입니다.
상시 테스트를 통한 품질 보증.
모든 AI 기능은 출시에 앞서 자동화된 시스템 및 사람에 의한 직접 검토 방식을 통해 엄격한 테스트를 받습니다. 이러한 프로세스는 기능 출시로 끝나지 않습니다. 현실의 환경에서 계속 성능을 평가하면서 신뢰할 수 있고 면밀하며 사용자의 기대에 부합하는 결과인지 점검합니다.
윤리적 관리 감독에 의한 설계.
우리가 구현하는 모든 AI 기능은 기술 평가와 다양한 인간적 관점을 균형적으로 반영한 체계적인 검토 프로세스를 거칩니다. 그 덕분에 편향이나 허위 진술과 같은 위험을 선제적으로 파악하는 것은 물론 공정, 윤리, 배려의 정신으로 광범위한 사용자에게 도움이 될 도구를 만듭니다.
올바른 방향으로 이끄는 피드백.
사용자의 목소리는 Chaos가 계속 발전하는 데 중심축의 역할을 합니다. Chaos는 커뮤니티 포럼, 알파 및 베타 프로그램, 타게팅 고객 지원, 라운드테이블을 통해 사용자 경험과 끊임없이 연결됩니다. 이러한 지속적인 대화를 통해 사용자의 니즈에 따라 진화하되 계속 현실에 뿌리를 두는 AI를 개발할 수 있습니다.
AI가 디자인 및 시각화 워크플로에 점점 더 많이 포함되는 만큼 Chaos는 지적 재산(IP)과 데이터 보안에 관한 투명성이 얼마나 중요해졌는지를 잘 알고 있습니다. 본 FAQ는 Chaos의 AI 기반 도구 작업 시 사용자의 데이터가 관리되는 방식, 그리고 사용자가 보유하는 권리를 명확하게 설명하기 위해 마련되었습니다.
여기서는 3가지 핵심 AI 도구를 다룹니다.
도구별로 2가지 핵심 영역으로 나누어 살펴보겠습니다. 바로 학습 데이터의 IP, 그리고 사용 중 데이터를 보호하기 위한 조치입니다. 우리의 목표는 여러분이 각자의 크리에이티브 프로세스에서 AI의 가능성을 모색할 때 자신감과 선명성을 부여하는 것입니다. 다른 궁금한 점이 있으면 언제라도 문의해 주세요. 기꺼이 도와드리겠습니다!
미국 저작권청에 따르면, AI에 의해 생성된 콘텐츠에서 사람이 해당 이미지 제작에 참여하거나 유의미하게 이미지를 수정한 경우 저작권이 발생할 수 있습니다. 여기서 공식 지침을 읽어보세요. Veras는 사용자의 3D 모델 및 카메라 뷰를 렌더링의 시각적 기반('substrate')으로 사용합니다. 따라서 사용자의 저작물 콘텐츠가 결과물의 직접적인 바탕이 됩니다. 아울러 사용자의 프롬프트 생성, 시드 잠금, 렌더링 선택 행위를 통해 사람에 의한 입력이 이루어지면서 공동 저작 프로세스가 됩니다. 이와 같은 인간에 의한 입력 구성 요소가 Veras 사용 경험에 내재됨에 따라 모든 결과물은 미국 저작권청 지침의 저작권 보호 대상 콘텐츠 요건에 완벽히 부합합니다.
유럽 연합(EU)에서는 저작물의 독창성이 더 강조됩니다. 인간에 의한 입력 또는 창의적 독창성의 충분 조건에 대한 기준이 국가마다 조금씩 다를 수 있습니다. 따라서 인간의 참여가 핵심이지만 정확한 법적 처리는 국가별로 달라지기도 합니다.
Chaos는 사용자가 Veras를 사용하여 생성하는 결과물에 대한 소유권을 결코 주장하지 않습니다. 단, 주로 Chaos의 제품과 서비스를 운영하고 개선할 목적으로 이러한 결과물을 사용할 특정 제한적 권리를 보유할 수 있습니다. 아울러 Chaos는 Chaos 제품, 서비스, 콘텐츠 사용에 대해 (관련 법률에 위배되는 사용이나 Chaos의 독점 콘텐츠의 물리적 구현을 포함하는 사용을 금지하는 것과 같은) 특정 제한을 적용할 수 있습니다. 정확한 내용은 라이선스 및 서비스 계약에서 확인할 수 있습니다.
결과물에 대한 사용자의 권리는 여러 요인, 특히 렌더링이 생성된 상황(예: 독립적으로, 사용자가 고용된 상태에서, 또는 고객 계약에 따라 이루어졌는가), 그리고 사용된 기초 모델 또는 애셋에 대한 제3자의 권리에 따라 달라집니다.
Veras는 Stable Diffusion을 기반으로 합니다. 이 모델의 학습에는 인터넷 소스에서 수집된, 공개적으로 제공되는 대규모의 이미지-텍스트 데이터 세트, LAION 데이터 세트가 사용됩니다.
아니요. Veras에서 생성되는 결과물은 어떤 하나의 학습 이미지를 재현한 게 아닙니다. 이 모델은 사용자의 3D 디자인 구조 및 사용자의 텍스트 지침에 따라 완전히 새로운 콘텐츠를 생성합니다. 입력한 정보가 사용자의 것이라면 결과물도 사용자의 것입니다.
Veras는 렌더링을 위해 필수 데이터(카메라 뷰 및 지오메트리 스냅샷)만 클라우드로 전송합니다.
그렇습니다. AI Enhancer가 사용자의 렌더링에 시각적 개선 사항을 적용합니다. 새로운 콘텐츠를 유입하거나 사용자의 디자인 의도를 바꾸지 않으므로 지적 재산은 계속 온전히 사용자의 소유입니다.
AI Enhancer는 Stable Diffusion을 기반으로 합니다. 이 모델의 학습에는 인터넷 소스에서 수집된, 공개적으로 제공되는 대규모의 이미지-텍스트 데이터 세트, LAION 데이터 세트 그리고 노이즈 제거 및 디테일 향상과 같은 오픈 소스 이미지 처리 기술이 사용됩니다. 사용자가 생성한 콘텐츠는 학습하지 않으며, 외부 이미지도 사용되지 않습니다.
입출력 이미지를 미국에 저장하며, EULA에 따라 QA 및 진단 목적으로만 사용합니다. 이 데이터는 학습에 사용하지 않으며, 그럴 계획도 없습니다.
그렇습니다. Glyph는 오로지 사용자의 BIM 환경 내에서 작동하면서 사용자의 모델을 기반으로 결과물(뷰, 시트, 태그, 차원)을 생성합니다. 프롬프트와 사용자 입력에 따라 결과가 만들어지며, 모든 결과물은 사용자의 프로젝트 내에 있고, 사용자가 제어할 수 있습니다.
Glyph Copilot은 OpenAI의 ChatGPT(GPT-4)를 사용하여 Glyph 작업 및 번들 실행을 지원합니다. 이 LLM의 학습에는 공개적으로 제공되는 광범위한 인터넷 데이터가 쓰이며, 고객 콘텐츠는 포함되지 않습니다.
Glyph는 사용자의 데이터를 사용하여 모델을 재학습하거나 정밀 조정하지 않습니다.
아니요, 그러나 EULA에 따라 Chaos는 향후에 그렇게 할 수 있는 선택권이 있습니다. 앱을 처음 실행할 때 이미지, 프롬프트, 앱 사용 데이터의 익명 수집을 허락하고 싶지 않다면 두 개의 확인란을 선택 취소할 수 있습니다.
IT 전문가는 다음 지침에 따라 전체 범위에서 이 기능을 끌 수 있습니다. https://forum.evolvelab.io/t/installing-veras-msi-configurations-remote-deployment-for-it-managers/4717