// mouseover tooltips for various UI elements deforum_titles = { //******************************************************************************** //Run //******************************************************************************** "Override settings": "especifique un archivo de configuración personalizado e ignore la configuración que se muestra en la interfaz", "Custom settings file": "la ruta a un archivo de configuración personalizada", "Width": "El ancho de las imágenes de salida, en píxeles (debe ser un múltiplo de 64)", "Height": "La altura de las imágenes de salida, en píxeles (debe ser un múltiplo de 64)", "Restore faces": "Restaurar caras de baja calidad usando la red neuronal GFPGAN", "Tiling": "Produce una imagen que se pueda mosaico.", "Highres. fix": "Utilice un proceso de dos pasos para crear parcialmente una imagen con una resolución más pequeña, aumente la escala y luego mejore los detalles sin cambiar la composición", "Seed": "Un valor que determina la salida del generador de números aleatorios: si crea una imagen con los mismos parámetros y la semilla que otra imagen, obtendrá el mismo resultado", "Sampler": "Qué algoritmo usar para producir la imagen", "Enable extras": "habilitar configuraciones semilla adicionales", "Subseed": "Semilla de una imagen diferente para mezclar en la generación.", "Subseed strength": "Qué tan fuerte es la variación que se debe producir. En 0, no habrá ningún efecto. En 1, obtendrás la imagen completa con la semilla de variación (excepto para los samplers ancestrales, donde solo obtendrás algo)". , "Resize seed from width": "Normalmente, cambiar la resolución cambiará completamente una imagen, incluso cuando se usa la misma semilla. Si generó una imagen con una semilla en particular y luego cambió la resolución, coloque la resolución original aquí para obtener una imagen que se parece más al original", "Resize seed from height": "Normalmente, cambiar la resolución cambiará completamente una imagen, incluso cuando se usa la misma semilla. Si generó una imagen con una semilla en particular y luego cambió la resolución, coloque la resolución original aquí para obtener una imagen que se parece más al original", "Steps": "Cuántas veces mejorar la imagen generada de forma iterativa; los valores más altos toman más tiempo; los valores muy bajos pueden producir malos resultados", //"ddim_eta": ""; //"n_batch": "", //"save_settings": "", //"save_samples": "", "Batch name": "las imágenes de salida se colocarán en una carpeta con este nombre (se reemplazará el token {timestring}) dentro de la carpeta de salida img2img. Admite marcadores de posición como {seed}, {w}, {h}, {prompts} y más", "Pix2Pix img CFG schedule": "*¡Solo en uso con los puntos de control de pix2pix!*", "Filename format": "especifique el formato del nombre de archivo para las imágenes de salida", "Seed behavior": "define el comportamiento de la semilla que se utiliza para las animaciones", "iter": "el valor inicial se incrementará en 1 por cada fotograma subsiguiente de la animación", "fixed": "la semilla permanecerá fija en todos los fotogramas de la animación", "random": "se usará una semilla aleatoria en cada fotograma de la animación", "schedule": "especifique su propio programa de semillas", "Seed iter N":"controla cuántos fotogramas debe pegarse la misma semilla antes de iterar a la siguiente", //******************************************************************************** //Keyframes //******************************************************************************** "Animation mode": "selecciona el tipo de animación", "2D": "solo se usarán parámetros de movimiento 2D, pero este modo usa la menor cantidad de VRAM. Opcionalmente, puede habilitar flip_2d_perspective para habilitar algunos parámetros de animación psuedo-3d mientras está en modo 2D.", "3D": "habilita todos los parámetros de movimiento 3D.", "Video Input": "ignorará todos los parámetros de movimiento e intentará hacer referencia a un video cargado en el tiempo de ejecución, especificado por video_init_path. Max_frames se ignora durante el modo video_input y, en cambio, sigue la cantidad de cuadros extraídos de la duración del video. Resume_from_timestring es NO disponible con el modo Video_Input.", "Max frames": "el número máximo de imágenes de salida que se crearán", "Border": "controla el método de manejo de los píxeles que se generan cuando la imagen es más pequeña que el marco.", "wrap": "extrae píxeles del borde opuesto de la imagen", "replicate": "repite el borde de los píxeles y los extiende. Las animaciones con movimiento rápido pueden generar líneas en las que esta función de borde intentaba llenar los píxeles en el espacio vacío creado.", "Zoom": "Operador 2D que escala el tamaño del lienzo, multiplicativamente. [estático = 1.0]", "Angle": "Operador 2D para girar el lienzo en sentido horario/antihorario en grados por cuadro", "Transform Center X": "eje central x para ángulo/zoom 2D *solo*", "Transform Center Y": "eje central y para ángulo/zoom 2D *solo*", "Translation X": "Operador 2D y 3D para mover el lienzo hacia la izquierda/derecha en píxeles por cuadro", "Translation Y": "Operador 2D y 3D para mover el lienzo hacia arriba/abajo en píxeles por cuadro", "Translation Z": "Operador 3D para acercar o alejar el lienzo de la vista [velocidad establecida por FOV]", "Rotation 3D X": "Operador 3D para inclinar el lienzo hacia arriba/abajo en grados por cuadro", "Rotation 3D Y": "Operador 3D para desplazar el lienzo hacia la izquierda/derecha en grados por cuadro", "Rotation 3D Z": "Operador 3D para hacer rodar el lienzo en sentido horario/antihorario", "Enable perspective flip": "habilita funciones de modo 2D para simular movimiento 3D falso", "Perspective flip theta": "el ángulo del efecto de balanceo", "Perspective flip phi": "el ángulo del efecto de inclinación", "Perspective flip gamma": "el ángulo del efecto pan", "Perspective flip fv": "el punto de fuga 2D de la perspectiva (rango recomendado 30-160)", "Noise schedule": "cantidad de granulosidad para agregar por cuadro para la diversidad de difusión", "Strength schedule": "cantidad de presencia del fotograma anterior para influir en el siguiente fotograma, también controla los pasos en la siguiente fórmula [pasos - (strength_schedule * pasos)]", "Sampler schedule": "controla qué muestreador usar en un marco programado específico", "Contrast schedule": "ajusta el contraste general por fotograma [neutro predeterminado en 1,0]", "CFG scale schedule": "cuán cerca debe ajustarse la imagen a la solicitud. Los valores más bajos producen resultados más creativos. (rango recomendado 5-15)", "FOV schedule": "ajusta la escala a la que se mueve el lienzo en 3D por el valor translation_z. [rango máximo -180 a +180, siendo 0 indefinido. Los valores más cercanos a 180 harán que la imagen tenga menos profundidad, mientras que los valores más cerca de 0 permitirá más profundidad]", "Aspect Ratio schedule": "ajusta la relación de aspecto para el cálculo de profundidad (normalmente 1)", //"near_schedule": "", //"far_schedule": "", "Seed schedule": "te permite especificar semillas en un horario específico, si seed_behavior está configurado para programar.", "Color coherence": "La coherencia de color intentará muestrear la información de color de píxel general y generar tendencias de esos valores analizados en el primer cuadro para aplicarlos a cuadros futuros". // "Ninguno": "Desactivar coherencia de color", "HSV": "HSV es un buen método para equilibrar la presencia de colores vibrantes, pero puede producir resultados poco realistas (por ejemplo, manzanas azules)", "LAB": "LAB es un enfoque más lineal para imitar la percepción humana del espacio de color: una buena configuración predeterminada para la mayoría de los usuarios.", "RGB": "RGB es bueno para imponer cantidades imparciales de color en cada canal rojo, verde y azul; algunas imágenes pueden generar artefactos coloreados si el muestreo es demasiado bajo.", "Cadence": "Una configuración de 1 hará que cada cuadro reciba difusión en la secuencia de salidas de imagen. Una configuración de 2 solo se difundirá en cada otro cuadro, pero el movimiento seguirá teniendo efecto. La salida de imágenes durante la cadencia la secuencia se combinará automáticamente, de forma aditiva y se guardará en la unidad especificada. Esto puede mejorar la ilusión de coherencia en algunos flujos de trabajo, ya que el contenido y el contexto de una imagen no cambiarán ni se difundirán durante los fotogramas que se omitieron. Valores más altos de 4-8 cadencia saltará una mayor cantidad de fotogramas y solo difundirá el fotograma "N-ésimo" según lo establecido por el valor de cadencia de difusión. Esto puede producir más continuidad en una animación, a costa de pocas oportunidades para agregar más contenido difundido. En ejemplos extremos, el movimiento dentro un cuadro no producirá un contexto de solicitud diverso, y el espacio se llenará con líneas o aproximaciones de contenido, lo que dará como resultado patrones de animación y artefactos inesperados. Los modos de entrada e interpolación de video no se ven afectados por diffusion_cadence.", "Optical flow cadence": "Método opcional para el flujo óptico utilizado para combinar fotogramas durante la cadencia en el modo de animación 3D (si la cadencia es superior a 1).", "Optical flow redo generation": "Esta opción tarda el doble porque genera dos veces para capturar el flujo óptico de la imagen anterior a la primera generación, luego deforma la imagen anterior y rehace la generación. Funciona en animación 2D/3D modos.", "Redo": "Redo de difusión. Esta opción renderiza N veces antes del renderizado final. Se sugiere reducir los pasos si aumenta el redo. La semilla se aleatoriza durante las generaciones de redo y se restaura después.", "Noise type": "Selecciona el tipo de ruido que se agrega a cada cuadro", "uniform": "El ruido uniforme cubre todo el cuadro. De alguna manera aplana y agudiza el video con el tiempo, pero puede ser bueno para una apariencia caricaturesca. Esta es la antigua configuración predeterminada.", "perlin": "El ruido Perlin es un ruido de apariencia más natural. Es heterogéneo y menos agudo que el ruido uniforme, de esta forma es más probable que los nuevos detalles aparezcan de una manera más coherente. Esta es la nueva configuración predeterminada.", "Perlin W": "El ancho de la muestra de Perlin. Los valores más bajos crearán regiones de ruido más grandes. Piense en ello como un ancho de trazo de pincel inverso. Cuanto mayor sea esta configuración, afectará a los detalles más pequeños.", "Perlin H": "La altura de la muestra de Perlin. Los valores más bajos crearán regiones de ruido más grandes. Piense en ello como un ancho de trazo de pincel inverso. Cuanto mayor sea esta configuración, afectará a los detalles más pequeños.", "Perlin octaves": "El número de octavas de ruido de Perlin, es decir, el recuento de iteraciones de ruido P. Los valores más altos harán que el ruido sea más suave y parecido al humo, mientras que los valores más bajos harán que se vea más orgánico y irregular. Es limitado por 8 octavas ya que la ganancia resultante se saldrá de los límites.", "Perlin persistence": "Cuánto ruido de cada octava se agrega en cada iteración. Los valores más altos lo harán más recto y nítido, mientras que los valores más bajos lo harán más redondo y suave. Está limitado por 1.0 ya que la ganancia resultante llena el marco completamente con ruido.", "Use depth warping": "habilita las instrucciones para deformar una imagen dinámicamente solo en modo 3D.", "MiDaS weight": "establece un punto medio en el que se dibujará un mapa de profundidad: rango [-1 a +1]", "Padding mode": "instruye el manejo de píxeles fuera del campo de visión a medida que entran en la escena.", //"border": "El borde intentará usar los bordes del lienzo como los píxeles que se dibujarán", //nombre duplicado como otra propiedad "reflection": "la reflexión intentará aproximarse a la imagen y mosaico/píxeles repetidos", "zeros": "los ceros no agregarán ninguna información de píxel nueva", "Sampling Mode": "elija entre los modos Bicúbico, Bilineal o Más cercano. (Recomendado: Bicúbico)", "Save depth maps": "se generará una imagen de mapa de profundidad en escala de grises junto con las imágenes de salida.", //******************************************************************************** // Prompts //******************************************************************************** "Prompts": "mensajes para su animación en formato JSON. Use --neg palabras para agregar 'palabras' como mensaje negativo", "Prompts positive": "mensaje positivo para agregar a *todos* los mensajes", "Prompts negative": "mensaje negativo para agregar a *todos* los mensajes. ¡NO use --neg aquí!", //******************************************************************************** // Init //******************************************************************************** "Use init": "Difunde el primer cuadro basado en una imagen, similar a img2img.", "Strength": "Controla la fuerza de la difusión en la imagen inicial. 0 = deshabilitado", "Strength 0 no init": "Establece la fuerza en 0 automáticamente cuando no se usa ninguna imagen de inicio", "Init image": "la ruta a su imagen de inicio", "Use mask": "Usa una imagen en escala de grises como máscara en tu imagen inicial. Las áreas más blancas de la máscara son áreas que cambian más.", "Use alpha as mask": "usar el canal alfa de la imagen inicial como máscara", "Mask file": "la ruta a su imagen de máscara", "Invert mask": "Invierte los colores de la máscara", "Mask brightness adjust": "ajusta el brillo de la máscara. Debe ser un número positivo, donde 1.0 significa que no hay ajuste.", "Mask contrast adjust": "ajusta el brillo de la máscara. Debe ser un número positivo, donde 1.0 significa que no hay ajuste.", "overlay mask": "Superponga la imagen enmascarada al final de la generación para que no se degrade al codificar y decodificar", "Mask overlay blur": "Desenfoque de los bordes de la máscara de superposición final, si se usa. Mínimo = 0 (sin desenfoque)", "Video init path": "el directorio \/ URL en el que se encuentra su archivo de video solo para el modo de entrada de video", "Extract nth frame": "durante la secuencia de ejecución, solo se extraerán, guardarán y difundirán los fotogramas especificados por este valor. Un valor de 1 indica que se tendrá en cuenta cada fotograma. Los valores de 2 utilizarán cada otro fotograma para la secuencia. Los valores más altos omitirán ese número de fotogramas respectivamente.", "Extract from frame":"comenzar a extraer el video de entrada solo de este número de cuadro", "Extract to frame": "detener la extracción del video en este número de cuadro. -1 sin límites", "Overwrite extracted frames": "cuando está habilitado, volverá a extraer fotogramas de video en cada ejecución. Al usar el modo video_input, se le indicará a la ejecución que escriba fotogramas de video en la unidad. Si ya completó los fotogramas necesarios, desmarque esta casilla para omitir la extracción redundante e iniciar inmediatamente el renderizado. Si no ha extraído fotogramas, debe ejecutar al menos una vez con esta casilla marcada para escribir los fotogramas necesarios.", "Use mask video": "solo modo de entrada de video, habilita la extracción y el uso de un archivo de video separado destinado a usarse como una máscara. Las áreas blancas de los cuadros de video extraídos no se verán afectadas por la difusión, mientras que las áreas negras se verán afectadas por completo. Las áreas más claras/oscuras se ven afectadas dinámicamente.", "Video mask path": "el directorio en el que se encuentra su máscara de video.", "Interpolate key frames": "selecciona si ignorar el programa de avisos o _x_fotogramas.", "Interpolate x frames": "la cantidad de fotogramas para la transición entre indicaciones (cuando interpolate_key_frames = verdadero, entonces los números delante de las indicaciones de animación guiarán dinámicamente las imágenes en función de su valor. Si se establece en falso, ignorará la indicación números y forzar el valor de interpole_x_frames independientemente del número de solicitud)", "Resume from timestring": "instruye a la ejecución para que comience desde un punto específico", "Resume timestring": "la marca de tiempo requerida para hacer referencia al reanudar. Actualmente solo está disponible en modo 2D y 3D, la marca de tiempo se guarda como el nombre del archivo .txt de configuración, así como las imágenes producidas durante su ejecución anterior. El siguiente formato: aaaammddhhmmss - una marca de tiempo de cuando la ejecución comenzó a difundirse.", //******************************************************************************** // Video Output //******************************************************************************** "Skip video creation": "cuando está marcado, no generar un video", "Make GIF": "crea un gif además del archivo .mp4. Admite hasta 30 fps, se autodeshabilitará a valores de fps más altos", "Upscale":"mejorar las imágenes de la próxima ejecución una vez que haya terminado + hacer un video con ellas", "Upscale model":"modelo del escalador a usar. 'realesr-animevideov3' es mucho más rápido pero produce resultados más uniformes y menos detallados. Los otros modelos solo hacen x4", "Upscale factor":"cuántas veces se escala, las opciones reales dependen del modelo de escala elegido", "FPS": "Los fotogramas por segundo a los que se ejecutará el vídeo", "Output format": "seleccione el tipo de archivo de video para generar", "PIL gif": "crear un GIF animado", "FFMPEG mp4": "crear un archivo de video MP4", "FFmpeg location": "la ruta a donde se encuentra ffmpeg. ¡Deje 'ffmpeg' por defecto si ffmpeg está en su RUTA!", "FFmpeg crf": "controla la calidad donde menor es mejor, menos comprimido. Valores: 0 a 51, predeterminado 17", "FFmpeg preset": "controla qué tan buena es la compresión y la velocidad de operación. Si no tiene prisa, manténgalo en 'muy lento'", "Add soundtrack": "cuando se marca esta casilla y se selecciona FFMPEG mp4 como formato de salida, se multiplexará un archivo de audio con el video.", "Soundtrack path": "la ruta\/ URL a un archivo de audio para acompañar el video", "Use manual settings": "cuando esto no está marcado, el video se creará automáticamente en la misma carpeta de salida que las imágenes. Marque esta casilla para especificar diferentes configuraciones para la creación del video, especificadas por las siguientes opciones", "Render steps": "renderizar cada paso de difusión como un marco separado", "Max video frames": "el número máximo de cuadros para incluir en el video, cuando use_manual_settings está marcado", //"path_name_modifier": "", "Image path": "la ubicación de las imágenes para crear el video, cuando use_manual_settings está marcada", "MP4 path": "la ubicación de salida del archivo mp4, cuando se marca use_manual_settings", "Delete Imgs": "si está habilitado, las imágenes sin procesar se eliminarán después de una creación exitosa de video/videos (upsacling, interpolación, gif)", "Engine": "elegir el motor de interpolación de cuadros y la versión", "Interp X":"cuántas veces interpolar el video de origen. Por ejemplo, los fps de video de origen de 12 y un valor de x2 generarán un video interpolado de 24 fps", "Slow-Mo X":"cuántas veces reducir la velocidad del video. *Naturalmente, también afecta los fps de salida", "Keep Imgs": "eliminar o mantener sin formato las imágenes png afectadas (interpoladas/ampliadas según la sección de la interfaz de usuario)", "Interpolate an existing video":"Esta característica le permite interpolar cualquier video con un botón dedicado. El video podría no tener ninguna relación con deforum", "In Frame Count": "recuento total de fotogramas del video subido", "En FPS":"video subido FPS", "Interpolated Vid FPS":"FPS de vídeo interpolado de salida calculado", "In Res":"resolución del video subido", "Out Res":"resolución de vídeo de salida", //******************************************************************************** // Looper Args //******************************************************************************** // "use_looper": "", "Enable guided images mode": "marque esta casilla para habilitar el modo de imágenes guiadas", "Images to use for keyframe guidance": "imágenes sobre las que itera, puede hacer rutas locales o web (¡sin barras invertidas individuales!)", "Image strength schedule": "cuánto debe parecerse la imagen a la anterior y el inicio del nuevo cuadro de imagen. El programa de fuerza podría ser mejor si es más alto, alrededor de .75 durante los keyfames que desea activar", "Blend factor max": "blendFactor = blendFactorMax - blendFactorSlope * cos((frame % tweening_frames_schedule) / (tweening_frames_schedule / 2))", "Blend factor slope": "blendFactor = blendFactorMax - blendFactorSlope * cos((frame % tweening_frames_schedule) / (tweening_frames_schedule / 2))", "Tweening frames schedule": "número de fotogramas que combinaremos entre la imagen imaginada actual y la imagen de fotograma de entrada", "Color correction factor": "qué tan cerca se llega a los colores de la imagen del cuadro de entrada/la cantidad de cada cuadro durante un paso de interpolación para usar los colores de las nuevas imágenes", // deforum.py / lado derecho de la interfaz de usuario: "Settings File": "Ruta al archivo de configuración que desea cargar. La ruta puede ser relativa a la carpeta webui O completa - absoluta", //******************************************************************************** // Hybrid Video //******************************************************************************** "Generate inputframes": "Inicia la extracción de cuadros de video desde su video_init_path a la carpeta de cuadros de entrada. Solo necesita hacer esto una vez y luego puede cambiarlo a Falso y volver a renderizar", "Hybrid composite": "Involucra la composición híbrida de video en animación de varias maneras con comp alpha como control de mezcla principal.", "Use init image as video": "Usar imagen de inicio en lugar de video. No requiere generación de cuadros de entrada.", "First Frame as init image": "Si es verdadero, usa el primer cuadro del video como imagen_de_inicio. Falso puede crear efectos de transición interesantes en el video, según la configuración.", "Motion use prev img": "Si está habilitado, cambia el comportamiento o hybrid_motion para capturar movimiento al comparar el cuadro de video actual con la imagen renderizada anterior, en lugar del cuadro de video anterior". "Hybrid motion": "Analiza fotogramas de video para el movimiento de la cámara y aplica movimiento para renderizar.", "Flow method": "Selecciona el tipo de Flujo óptico que se utilizará si se selecciona Flujo óptico en movimiento híbrido.", "Comp mask type": "No necesitas una máscara para componer video. Sin embargo, los tipos de máscara pueden controlar la forma en que el video se compone con la imagen anterior en cada cuadro.", "Comp mask equalize": "Ecualiza la máscara de la composición antes o después de la operación de contraste automático (o ambas)", "Comp mask auto contrast": "Auto-contrasta la máscara para el compuesto. Si está habilitado, usa los programas de corte de autocontraste bajo/alto.", "Comp mask inverse": "Invierte la máscara compuesta.", "Comp save extra frames": "Si se selecciona esta opción, se generarán muchos fotogramas adicionales para los distintos procesos en la carpeta hybridframes.", "Comp alpha schedule": "El programa controla la cantidad de video compuesto que se mezcla, ya sea que la máscara esté configurada como Ninguna o usando una máscara. Esta es la mezcla maestra.", "Flow factor schedule": "Afecta el movimiento híbrido de flujo óptico. 1 es flujo normal. -1 es flujo negativo. 0.5 es flujo medio, etc...", "Comp mask blend alpha schedule": "Si usa una máscara de combinación, esto controla la cantidad de combinación del video y renderiza para la máscara compuesta.", "Comp mask contrast schedule": "Controla el contraste de la máscara compuesta. 0,5 si es la mitad, 1 es contraste normal, 2 es doble, etc.", "Comp mask auto contrast cutoff high schedule": "Si usa la opción de contraste automático, este es el corte alto para la operación.", "Comp mask auto contrast cutoff low schedule": "Si usa la opción de contraste automático, este es el corte bajo para la operación.", "Generate human masks": "Esto generará máscaras de todos los humanos en un video. Creado en la generación de video híbrido. Todavía no está integrado para el enmascaramiento automático, pero creará las máscaras y luego podrá usar el video de máscara manualmente .", } onUiUpdate(function(){ gradioApp().querySelectorAll('span, button, select, p').forEach(function(span){ tooltip = deforum_titles[span.textContent]; if(!tooltip){ tooltip = deforum_titles[span.value]; } if(!tooltip){ for (const c of span.classList) { if (c in deforum_titles) { tooltip = deforum_titles[c]; break; } } } if(tooltip){ span.title = tooltip; } }) gradioApp().querySelectorAll('select').forEach(function(select){ if (select.onchange != null) return; select.onchange = function(){ select.title = deforum_titles[select.value] || ""; } }) })