이미지 인공 지능 안정적인 확산오픈 소스이기 때문에 다양한 방법으로 사용할 수 있습니다.
나무위키 홈페이지당신이 보면 안정적인 확산 웹 UI, 워드 아트 불일치 등의 여러 프로젝트가 있습니다.
소설 AI안정적인 확산을 기반으로 하는 사이트도 있습니다.
나는 시작했다 안정적인 확산 웹 UI설치를 해보았더니 클라우드 안정확산을 통해 구글 랩 나는 또한 주위를 기웃 거리다.
제가 사용하고 있는 PC가 몇 년 된(2019년 9월, 확인) 고사양이 아니기 때문에 로컬에서 실행하기 어려울 것이라고 생각했습니다.
그런데 한번에 다 설치하지 않고 여기저기 기웃거리며 휙휙 휙휙 휙휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 휙 쳐보니 뭐가 문제인지 몰라서 몇 번이고 설치했지만 결국 설치에 실패했습니다.
그런 다음 퍼지기 쉬운설정 원래 안정적인 확산몇 가지 편리한 UI가 있는 추가 기능으로 볼 수 있습니다.
아래에 설명된 바와 같이 클릭 한 번으로 설치할 수 있고 기술 지식이 필요하지 않으며 추가 소프트웨어의 사전 설치가 필요하지 않기 때문입니다.
내 그래픽 카드 지포스 GTX1050 Ti인데, 간헐적으로 실행할 수 있다는 정보도 한몫한다.
쉬운 설치. 위에 표시된 “Windows 다운로드” 버튼을 클릭하면 “Easy-Diffusion-Windows.exe”라는 파일을 다운로드하여 실행합니다.
달리기는 당연히 가능하다.
설치 경로(C:\EasyDiffusion 등)로 들어가시면 아래와 같은 파일들이 설치가 되니 하단의 Start Stable Diffusio U.cmd를 더블클릭하시면 됩니다.
그러면 Windows 콘솔이 나타나서 몇 가지를 실행(및 설치)하고 웹 탐색기에 아래 화면이 나타납니다.
이제 안정적인 확산을 사용할 수 있습니다.
그렇게 간단합니다.
아래는 첫 번째 실행에서 (이미지 만들기) 버튼을 직접 누른 결과입니다(왼쪽 상단에는 우주 비행사가 말을 타고 있는 사진 프롬프트가 표시됨).
이제 힌트 창에 해당 단어를 입력하면 해당 힌트와 일치하는 AI 생성 이미지를 볼 수 있습니다.
몇일전 설치해서 몇번 실행해봤는데 그래픽카드가 꼬여서 제작속도가 느리고 큰사진을 만들때 오류가 납니다 가끔씩 제작된 사진이 이상하게 나오는데 생각보다 효과는 좋습니다 라고 생각해서 매우 흥미롭게 사용하고 있습니다.
===
다음은 이 웹사이트의 Easy Diffusion 혜택에 대한 요약입니다.
이것을 참조하십시오.
기능
사용자 경험
- 간편한 설치: 기술 지식이 필요하지 않으며 사전 설치된 소프트웨어가 필요하지 않습니다.
그냥 다운로드하고 실행하십시오! - 깨끗한 사용자 인터페이스: 여전히 강력한 기능을 제공하면서 친근하고 간단한 사용자 인터페이스를 제공합니다.
- 작업 대기열: 작업이 완료될 때까지 기다리지 않고 현재 작업을 대기열에 추가할 수 있습니다.
- 스마트 모델 감지: 모델 데이터베이스를 통해 선택한 모델에 대한 YAML 구성 파일을 자동으로 찾습니다.
- 실시간 미리보기 : AI가 그린 이미지를 실시간으로 볼 수 있습니다.
- 이미지 수정자: “realistic”, “pencil sketch”, “artstation” 등과 같은 수정자 태그 라이브러리가 있습니다.
다양한 스타일을 빠르게 실험해 보세요. - 여러 프롬프트 파일: 텍스트 파일을 실행하여 여러 프롬프트를 대기열에 추가할 수 있습니다.
- 생성된 이미지를 디스크에 저장: 생성된 이미지를 자동으로 저장할 수 있습니다.
- UI 테마: 필요에 따라 테마를 변경할 수 있습니다.
- 검색 가능한 모델 드롭다운: 모델을 하위 폴더로 구성하고 UI에서 검색할 수 있도록 합니다.
이미지 생성
- 지원: Text2Img 및 Img2Img를 지원합니다.
- 19개 샘플러: ddim, plms, heun, euler, euler_a, dpm2, dpm2_a, lms, dpm_solver_stability, dpmpp_2s_a, dpmpp_2m, dpmpp_sde, dpm_fast, dpm_adaptive, unipc_snr, unipc_tu, unipc_tq, unipc_snr_2 등
- 수정: 새로고침할 이미지 영역을 지정할 수 있습니다.
- 간단한 그리기 도구: 외부 그리기 프로그램 없이 기본 이미지를 그립니다.
- 얼굴 보정(GFPGAN)
- 업그레이드(RealESRGAN)
- 루프백: 출력 이미지를 다음 img2img 작업의 입력 이미지로 사용합니다.
- 부정적인 힌트: 생성할 이미지에서 제거할 속성을 지정합니다.
- 참고/강조: 힌트에 ()를 사용하여 속성을 강조하고 ()를 사용하여 속성을 약화시킵니다.
- 가중치 힌트: 힌트의 특정 단어에 가중치를 적용하여 중요도를 변경합니다(예: 빨강:2.4 용:1.2).
- 큐 매트릭스: 말을 타고 있는 우주 비행사의 사진 | 일러스트레이션 | 영화 조명과 마찬가지로 다양한 큐 변형을 쉽게 만들 수 있습니다.
- 1-클릭 업스케일/얼굴 미화: 이미지를 만든 후 확대하거나 향상시킵니다.
- 유사한 이미지 생성: 생성한 이미지의 여러 변형을 생성할 수 있습니다.
- NSFW 설정: NSFW(Backward Attention) 콘텐츠 생성 여부를 제어할 수 있습니다.
- JPEG/PNG/WEBP 출력: 여러 파일 형식을 지원합니다.
고급 기능
- 사용자 지정 모델: .ckpt 또는 .safetensors 파일을 models/stable-diffusion 폴더에 넣어 다양한 모델을 적용할 수 있습니다.
- 안정적인 확산 2.1 지원
- 모델 병합: 여러 모델을 병합하여 사용할 수 있습니다.
- 사용자 지정 VAE 모델 사용
- 사전 훈련된 하이퍼네트워크 사용
- 사용자 지정 GFPGAN 모델 사용
- UI 플러그인: 커뮤니티에서 만든 UI 플러그인 목록에서 선택하거나 자신만의 플러그인을 작성할 수 있습니다.
성능 및 보안
- 빠름: NVIDIA 3060 12GB에서 5초 만에 처리되는 512×512 이미지(euler_a).
- 낮은 메모리 사용량: 3GB 미만의 GPU RAM으로 512×512 이미지를 생성하고 4GB 미만의 GPU RAM으로 768×768 이미지를 생성할 수 있습니다.
- Enable CPU: 호환되는 그래픽 카드가 없어도 실행됩니다.
- 다중 GPU 지원: 사용 가능한 경우 더 빠른 성능을 위해 작업이 여러 GPU에 자동으로 분산됩니다!
- 악성 모델 자동 검색: picklescan을 사용하여 악성 모델을 방지합니다.
- Safetensor 지원: Safetensor 형식으로 로딩 모델을 지원하여 안전성을 향상시킵니다.
- 자동 업데이터: 최신 개선 사항 및 버그 수정을 자동으로 반영합니다.
- 개발자 콘솔: Stable Diffusion 코드를 수정하고 conda 환경을 편집하려는 개발자를 지원합니다.
====
좋은 말씀이 많이 쓰여졌습니다.
. . 아직도 이해가 안가는게 많은데 계속 업데이트 하면서 배워갑니다~
분 푸른 하늘