gwyneth peña-siguenza
8 TopicsJoin our free livestream series on building agents in Python
Join us for a new 6‑part livestream series where we explore the foundational concepts behind building AI agents in Python using the Microsoft Agent Framework. This series is for anyone who wants to understand how agents work—how they call tools, use memory and context, and construct workflows on top of them. Over two weeks, we’ll dive into the practical building blocks that shape real agent behavior. You’ll learn how to: 🔧 Register and structure tools 🔗 Connect local MCP servers 📚 Add context with database calls 🧠 Add memory for personalization 📈 Monitor agent behavior with OpenTelemetry ✅ Evaluate the quality of agent output Throughout the series, we’ll use Python for all live examples and share full code so you can run everything yourself. You can also follow along live using GitHub Models and GitHub Codespaces. 👉 Register for the full series. Spanish speaker? ¡Tendremos una serie para hispanohablantes! Regístrese aquí In addition to the live streams, you can also join Join the Microsoft Foundry Discord to ask follow-up questions after each stream. If you are brand new to generative AI with Python, start with our 9-part Python + AI series, which covers topics such as LLMs, embedding models, RAG, tool calling, MCP, and will prepare you perfectly for the agents series. To learn more about each live stream or register for individual sessions, scroll down: Python + Agents: Building your first agent in Python 24 February, 2026 | 6:30 PM - 7:30 PM (UTC) Coordinated Universal Time Register for the stream on Reactor In the first session of our Python + Agents series, we’ll kick things off with the fundamentals: what AI agents are, how they work, and how to build your first one using the Microsoft Agent Framework. We’ll start with the core anatomy of an agent, then walk through how tool calling works in practice—beginning with a single tool, expanding to multiple tools, and finally connecting to tools exposed through local MCP servers. We’ll conclude with the supervisor agent pattern, where a single supervisor agent coordinates subtasks across multiple subagents, by treating each agent as a tool. Along the way, we'll share tips for debugging and inspecting agents, like using the DevUI interface from Microsoft Agent Framework for interacting with agent prototypes. Python + Agents: Adding context and memory to agents 25 February, 2026 | 6:30 PM - 7:30 PM (UTC) Coordinated Universal Time Register for the stream on Reactor In the second session of our Python + Agents series, we’ll extend agents built with the Microsoft Agent Framework by adding two essential capabilities: context and memory. We’ll begin with context, commonly known as Retrieval‑Augmented Generation (RAG), and show how agents can ground their responses using knowledge retrieved from local data sources such as SQLite or PostgreSQL. This enables agents to provide accurate, domain‑specific answers based on real information rather than model hallucination. Next, we’ll explore memory—both short‑term, thread‑level context and long‑term, persistent memory. You’ll see how agents can store and recall information using solutions like Redis or open‑source libraries such as Mem0, enabling them to remember previous interactions, user preferences, and evolving tasks across sessions. By the end, you’ll understand how to build agents that are not only capable but context‑aware and memory‑efficient, resulting in richer, more personalized user experiences. Python + Agents: Monitoring and evaluating agents 26 February, 2026 | 6:30 PM - 7:30 PM (UTC) Coordinated Universal Time Register for the stream on Reactor In the third session of our Python + Agents series, we’ll focus on two essential components of building reliable agents: observability and evaluation. We’ll begin with observability, using OpenTelemetry to capture traces, metrics, and logs from agent actions. You'll learn how to instrument your agents and use a local Aspire dashboard to identify slowdowns and failures. From there, we’ll explore how to evaluate agent behavior using the Azure AI Evaluation SDK. You’ll see how to define evaluation criteria, run automated assessments over a set of tasks, and analyze the results to measure accuracy, helpfulness, and task success. By the end of the session, you’ll have practical tools and workflows for monitoring, measuring, and improving your agents—so they’re not just functional, but dependable and verifiably effective. Python + Agents: Building your first AI-driven workflows 3 March, 2026 | 6:30 PM - 7:30 PM (UTC) Coordinated Universal Time Register for the stream on Reactor In Session 4 of our Python + Agents series, we’ll explore the foundations of building AI‑driven workflows using the Microsoft Agent Framework: defining workflow steps, connecting them, passing data between them, and introducing simple ways to guide the path a workflow takes. We’ll begin with a conceptual overview of workflows and walk through their core components: executors, edges, and events. You’ll learn how workflows can be composed of simple Python functions or powered by full AI agents when a step requires model‑driven behavior. From there, we’ll dig into conditional branching, showing how workflows can follow different paths depending on model outputs, intermediate results, or lightweight decision functions. We’ll introduce structured outputs as a way to make branching more reliable and easier to maintain—avoiding vague string checks and ensuring that workflow decisions are based on clear, typed data. We'll discover how the DevUI interface makes it easier to develop workflows by visualizing the workflow graph and surfacing the streaming events during a workflow's execution. Finally, we'll dive into an E2E demo application that uses workflows inside a user-facing application with a frontend and backend. Python + Agents: Orchestrating advanced multi-agent workflows 4 March, 2026 | 6:30 PM - 7:30 PM (UTC) Coordinated Universal Time Register for the stream on Reactor In Session 5 of our Python + Agents series, we’ll go beyond workflow fundamentals and explore how to orchestrate advanced, multi‑agent workflows using the Microsoft Agent Framework. This session focuses on patterns that coordinate multiple steps or multiple agents at once, enabling more powerful and flexible AI‑driven systems. We’ll begin by comparing sequential vs. concurrent execution, then dive into techniques for running workflow steps in parallel. You’ll learn how fan‑out and fan‑in edges enable multiple branches to run at the same time, how to aggregate their results, and how concurrency allows workflows to scale across tasks efficiently. From there, we’ll introduce two multi‑agent orchestration approaches that are built into the framework. We’ll start with handoff, where control moves entirely from one agent to another based on workflow logic, which is useful for routing tasks to the right agent as the workflow progresses. We’ll then look at Magentic, a planning‑oriented supervisor that generates a high‑level plan for completing a task and delegates portions of that plan to other agents. Finally, we'll wrap up with a demo of an E2E application that showcases a concurrent multi-agent workflow in action. Python + Agents: Adding a human in the loop to agentic workflows 5 March, 2026 | 6:30 PM - 7:30 PM (UTC) Coordinated Universal Time Register for the stream on Reactor In the final session of our Python + Agents series, we’ll explore how to incorporate human‑in‑the‑loop (HITL) interactions into agentic workflows using the Microsoft Agent Framework. This session focuses on adding points where a workflow can pause, request input or approval from a user, and then resume once the human has responded. HITL is especially important because LLMs can produce uncertain or inconsistent outputs, and human checkpoints provide an added layer of accuracy and oversight. We’ll begin with the framework’s requests‑and‑responses model, which provides a structured way for workflows to ask questions, collect human input, and continue execution with that data. We'll move onto tool approval, one of the most frequent reasons an agent requests input from a human, and see how workflows can surface pending tool calls for approval or rejection. Next, we’ll cover checkpoints and resuming, which allow workflows to pause and be restarted later. This is especially important for HITL scenarios where the human may not be available immediately. We’ll walk through examples that demonstrate how checkpoints store progress, how resuming picks up the workflow state, and how this mechanism supports longer‑running or multi‑step review cycles. This session brings together everything from the series—agents, workflows, branching, orchestration—and shows how to integrate humans thoughtfully into AI‑driven processes, especially when reliability and judgment matter most.Python + IA: Resumen y Recursos
Acabamos de concluir nuestra serie sobre Python + IA, un recorrido completo de nueve sesiones donde exploramos a fondo cómo usar modelos de inteligencia artificial generativa desde Python. Durante la serie presentamos varios tipos de modelos, incluyendo LLMs, modelos de embeddings y modelos de visión. Profundizamos en técnicas populares como RAG, tool calling y salidas estructuradas. Evaluamos la calidad y seguridad de la IA mediante evaluaciones automatizadas y red-teaming. Finalmente, desarrollamos agentes de IA con frameworks populares de Python y exploramos el nuevo Model Context Protocol (MCP). Para que puedas aplicar lo aprendido, todos nuestros ejemplos funcionan con GitHub Models, un servicio que ofrece modelos gratuitos a todos los usuarios de GitHub para experimentación y aprendizaje. Aunque no hayas asistido a las sesiones en vivo, ¡todavía puedes acceder a todos los materiales usando los enlaces de abajo! Si eres instructor, puedes usar las diapositivas y el código en tus propias clases. Python + IA: Modelos de Lenguaje Grandes (LLMs) 📺 Ver grabación En esta sesión exploramos los LLMs, los modelos que impulsan ChatGPT y GitHub Copilot. Usamos Python con paquetes como OpenAI SDK y LangChain, experimentamos con prompt engineering y ejemplos few-shot, y construimos una aplicación completa basada en LLMs. También explicamos la importancia de la concurrencia y el streaming en apps de IA. Diapositivas: aka.ms/pythonia/diapositivas/llms Código: python-openai-demos Guía de repositorio: video Python + IA: Embeddings Vectoriales 📺 Ver grabación En nuestra segunda sesión, aprendemos sobre los modelos de embeddings vectoriales, que convierten texto o imágenes en arreglos numéricos. Comparamos métricas de distancia, aplicamos cuantización y experimentamos con modelos multimodales. Diapositivas: aka.ms/pythonia/diapositivas/embeddings Código: vector-embedding-demos Guía de repositorio: video Python + IA: Retrieval Augmented Generation (RAG) 📺 Ver grabación Descubrimos cómo usar RAG para mejorar las respuestas de los LLMs añadiendo contexto relevante. Construimos flujos RAG en Python con distintas fuentes (CSVs, sitios web, documentos y bases de datos) y terminamos con una aplicación completa basada en Azure AI Search. Diapositivas: aka.ms/pythonia/diapositivas/rag Código: python-openai-demos Guía de repositorio: video Python + IA: Modelos de Visión 📺 Ver grabación Los modelos de visión aceptan texto e imágenes, como GPT-4o y GPT-4o mini. Creamos una app de chat con imágenes, realizamos extracción de datos y construimos un motor de búsqueda multimodal. Diapositivas: aka.ms/pythonia/diapositivas/vision Código: vector-embeddings Guía de repositorio: video Python + IA: Salidas Estructuradas 📺 Ver grabación Aprendemos a generar respuestas estructuradas con LLMs usando Pydantic BaseModel. Este enfoque permite validación automática de los resultados, útil para extracción de entidades, clasificación y flujos de agentes. Diapositivas: aka.ms/pythonia/diapositivas/salidas Código: python-openai-demos y entity-extraction-demos Guía de repositorio: video Python + IA: Calidad y Seguridad 📺 Ver grabación Analizamos cómo usar la IA de forma segura y cómo evaluar la calidad de las respuestas. Mostramos cómo configurar Azure AI Content Safety y usar el Azure AI Evaluation SDK para medir resultados de los modelos. Diapositivas: aka.ms/pythonia/diapositivas/calidad Código: ai-quality-safety-demos Guía de repositorio: video Python + IA: Tool Calling 📺 Ver grabación Exploramos el tool calling, base para crear agentes de IA. Definimos herramientas con esquemas JSON y funciones Python, manejamos llamadas paralelas y flujos iterativos. Diapositivas: aka.ms/pythonia/diapositivas/herramientas Código: python-openai-demos Guía de repositorio: video Python + IA: Agentes de IA 📺 Ver grabación Creamos agentes de IA con frameworks como el agent-framework de Microsoft y LangGraph, mostrando arquitecturas con múltiples herramientas, supervisores y flujos con intervención humana. Diapositivas: aka.ms/pythonia/diapositivas/agentes Código: python-ai-agents-demos Guía de repositorio: video Python + IA: Model Context Protocol (MCP) 📺 Ver grabación Cerramos la serie con MCP (Model Context Protocol), la tecnología más innovadora de 2025. Mostramos cómo usar el SDK de FastMCP en Python para crear un servidor MCP local, conectarlo a GitHub Copilot, construir un cliente MCP y conectar frameworks como LangGraph y agent-framework. También discutimos los riesgos de seguridad asociados. Diapositivas: aka.ms/pythonia/diapositivas/mcp Código: python-ai-mcp-demos Guía de repositorio: video Además Si tienen preguntas, por favor, en el canal #Espanol en nuestro Discord: https://aka.ms/pythonia/discord Todos los jueves tengo office hours: https://aka.ms/pythonia/horas Encuentra más tutoriales 100% en español sobre Python + AI en https://youtube.com/@lagps¡Curso oficial y gratuito de GenAI y Python! 🚀
¿Quieres aprender a usar modelos de IA generativa en tus aplicaciones de Python?Estamos organizando una serie de nueve transmisiones en vivo, en inglés y español, totalmente dedicadas a la IA generativa. Vamos a cubrir modelos de lenguaje (LLMs), modelos de embeddings, modelos de visión, y también técnicas como RAG, function calling y structured outputs. Además, te mostraremos cómo construir Agentes y servidores MCP, y hablaremos sobre seguridad en IA y evaluaciones, para asegurarnos de que tus modelos y aplicaciones generen resultados seguros. 🔗 Regístrate para toda la serie. Además de las transmisiones en vivo, puedes unirte a nuestras office hours semanales en el AI Foundry Discord de para hacer preguntas que no se respondan durante el chat. ¡Nos vemos en los streams! 👋🏻 Here’s your HTML converted into clean, readable text format (perfect for a newsletter, blog post, or social media caption): Modelos de Lenguaje 📅 7 de octubre, 2025 | 10:00 PM - 11:00 PM (UTC) 🔗 Regístrate para la transmisión en Reactor ¡Únete a la primera sesión de nuestra serie de Python + IA! En esta sesión, hablaremos sobre los Modelos de Lenguaje (LLMs), los modelos que impulsan ChatGPT y GitHub Copilot. Usaremos Python para interactuar con LLMs utilizando paquetes como el SDK de OpenAI y Langchain. Experimentaremos con prompt engineering y ejemplos few-shot para mejorar los resultados. También construiremos una aplicación full stack impulsada por LLMs y explicaremos la importancia de la concurrencia y el streaming en apps de IA orientadas al usuario. 👉 Si querés seguir los ejemplos en vivo, asegurate de tener una cuenta de GitHub. Embeddings Vectoriales 📅 8 de octubre, 2025 | 10:00 PM - 11:00 PM (UTC) 🔗 Regístrate para la transmisión en Reactor En la segunda sesión de Python + IA, exploraremos los embeddings vectoriales, una forma de codificar texto o imágenes como arrays de números decimales. Estos modelos permiten realizar búsquedas por similitud en distintos tipos de contenido. Usaremos modelos como la serie text-embedding-3 de OpenAI, visualizaremos resultados en Python y compararemos métricas de distancia. También veremos cómo aplicar cuantización y cómo usar modelos multimodales de embedding. 👉 Si querés seguir los ejemplos en vivo, asegurate de tener una cuenta de GitHub. Recuperación-Aumentada Generación (RAG) 📅 9 de octubre, 2025 | 10:00 PM - 11:00 PM (UTC) 🔗 Regístrate para la transmisión en Reactor En la tercera sesión, exploraremos RAG, una técnica que envía contexto al LLM para obtener respuestas más precisas dentro de un dominio específico. Usaremos distintas fuentes de datos —CSVs, páginas web, documentos, bases de datos— y construiremos una app RAG full-stack con Azure AI Search. Modelos de Visión 📅 14 de octubre, 2025 | 10:00 PM - 11:00 PM (UTC) 🔗 Regístrate para la transmisión en Reactor ¡La cuarta sesión trata sobre modelos de visión como GPT-4o y 4o-mini! Estos modelos pueden procesar texto e imágenes, generando descripciones, extrayendo datos, respondiendo preguntas o clasificando contenido. Usaremos Python para enviar imágenes a los modelos, crear una app de chat con imágenes e integrarlos en flujos RAG. 👉 Si querés seguir los ejemplos en vivo, asegurate de tener una cuenta de GitHub. Salidas Estructuradas 📅 15 de octubre, 2025 | 10:00 PM - 11:00 PM (UTC) 🔗 Regístrate para la transmisión en Reactor En la quinta sesión aprenderemos a hacer que los LLMs generen respuestas estructuradas según un esquema. Exploraremos el modo structured outputs de OpenAI y cómo aplicarlo para extracción de entidades, clasificación y flujos con agentes. 👉 Si querés seguir los ejemplos en vivo, asegurate de tener una cuenta de GitHub. Calidad y Seguridad 📅 16 de octubre, 2025 | 10:00 PM - 11:00 PM (UTC) 🔗 Regístrate para la transmisión en Reactor En la sexta sesión hablaremos sobre cómo usar IA de manera segura y evaluar la calidad de las salidas. Mostraremos cómo configurar Azure AI Content Safety, manejar errores en código Python y evaluar resultados con el SDK de Evaluación de Azure AI. Tool Calling 📅 21 de octubre, 2025 | 10:00 PM - 11:00 PM (UTC) 🔗 Regístrate para la transmisión en Reactor En la última semana de la serie, nos enfocamos en tool calling (function calling), la base para construir agentes de IA. Aprenderemos a definir herramientas en Python o JSON, manejar respuestas de los modelos y habilitar llamadas paralelas y múltiples iteraciones. 👉 Si querés seguir los ejemplos en vivo, asegurate de tener una cuenta de GitHub. Agentes de IA 📅 22 de octubre, 2025 | 10:00 PM - 11:00 PM (UTC) 🔗 Regístrate para la transmisión en Reactor ¡En la penúltima sesión construiremos agentes de IA! Usaremos frameworks como Langgraph, Semantic Kernel, Autogen, y Pydantic AI. Empezaremos con ejemplos simples y avanzaremos a arquitecturas más complejas como round-robin, supervisor, graphs y ReAct. Model Context Protocol (MCP) 📅 23 de octubre, 2025 | 10:00 PM - 11:00 PM (UTC) 🔗 Regístrate para la transmisión en Reactor Cerramos la serie con Model Context Protocol (MCP), la tecnología abierta más candente de 2025. Aprenderás a usar FastMCP para crear un servidor MCP local y conectarlo a chatbots como GitHub Copilot. También veremos cómo integrar MCP con frameworks de agentes como Langgraph, Semantic Kernel y Pydantic AI. Y, por supuesto, hablaremos sobre los riesgos de seguridad y las mejores prácticas para desarrolladores. ¿Querés que lo reformatee para publicación en Markdown (para blogs o repos) o en texto plano con emojis y separadores estilo redes sociales?Level Up Your Python Game with Generative AI Free Livestream Series This October!
If you've been itching to go beyond basic Python scripts and dive into the world of AI-powered applications, this is your moment. Join Pamela Fox and Gwyneth Peña-Siguenza Gwthrilled to announce a brand-new free livestream series running throughout October, focused on Python + Generative AI and this time, we’re going even deeper with Agents and the Model Context Protocol (MCP). Whether you're just starting out with LLMs or you're refining your multi-agent workflows, this series is designed to meet you where you are and push your skills to the next level. 🧠 What You’ll Learn Each session is packed with live coding, hands-on demos, and real-world examples you can run in GitHub Codespaces. Here's a taste of what we’ll cover: 🎥 Why Join? Live coding: No slides-only sessions — we build together, step by step. All code shared: Clone and run in GitHub Codespaces or your local setup. Community support: Join weekly office hours and our AI Discord for Q&A and deeper dives. Modular learning: Each session stands alone, so you can jump in anytime. 🔗 Register for the full series 🌍 ¿Hablas español? We’ve got you covered! Gwyneth Peña-Siguenza will be leading a parallel series in Spanish, covering the same topics with localized examples and demos. 🔗 Regístrese para la serie en español Whether you're building your first AI app or architecting multi-agent systems, this series is your launchpad. Come for the code, stay for the community — and leave with a toolkit that scales. Let’s build something brilliant together. 💡 Join the discussions and share your exprience at the Azure AI Discord CommunityActualizaciones en Visual Studio Code 1.98
La versión 1.98 de Visual Studio Code ya está disponible y llega con una serie de novedades que llevarán tu experiencia de desarrollo al siguiente nivel. Entre los principales destaques se encuentran nuevas integraciones avanzadas con la inteligencia artificial de GitHub Copilot, como el Modo Agente (en vista previa), Copilot Edits para notebooks y el innovador Copilot Vision, que permite interactuar con imágenes directamente en las conversaciones de chat. Si quieres consultar todas las actualizaciones en detalle, visita la página de Novedades en el sitio oficial. Insiders: ¿Te gustaría probar estas funcionalidades antes que nadie? Descarga la versión Insiders y accede a los recursos más recientes en cuanto estén disponibles. Copilot Agent Mode (Vista previa) El Modo Agente de Copilot (vista previa) transforma la interacción con tu código: busca automáticamente el contexto dentro del proyecto, sugiere comandos en la terminal y edita archivos de forma autónoma. ¡Así, puedes automatizar tareas completas! Puntos destacados: Comandos de terminal visibles en línea, con opción de editarlos antes de ejecutarlos. Acciones de deshacer/rehacer específicas para las ediciones realizadas por el agente. Integración con tareas de compilación automáticas (configurable). Copilot Edits en Notebooks (Vista previa) Ahora es posible editar notebooks directamente con Copilot. Esto facilita el flujo de trabajo para científicos de datos y profesionales que trabajan con documentación técnica. Creación, modificación y eliminación de celdas. Soporte completo para diferentes tipos de celdas. Actualización de la interfaz de usuario La interfaz de Ediciones fue rediseñada para mejorar la experiencia al revisar archivos modificados. Ahora los archivos aparecen como archivos adjuntos comunes, y la lista de archivos modificados se muestra justo arriba del chat. IntelliSense en la terminal (Vista previa) Una verdadera revolución para quienes disfrutan trabajar en la terminal: IntelliSense ahora funciona directamente en el terminal de VS Code. Principales beneficios: Sugerencias inteligentes para bash, zsh, fish y PowerShell. Autocompletado para comandos como git, npm, brew, ssh y muchos más. Integración con branches de Git, CDPATH y alias personalizados. Autocompletado al usar git checkout, ¡más rápido que nunca! Activa el Terminal IntelliSense y lleva tu productividad al siguiente nivel: "terminal.integrated.suggest.enabled": true Próximas Sugerencias de Edición (Vista previa) Copilot ahora ofrece próximas sugerencias de edición (NES), haciendo tu flujo de trabajo aún más fluido. Con el modo contraído, te enfocas solo en lo que realmente importa: Las sugerencias aparecen de manera discreta en el margen. Se activan solo cuando decides navegar hacia ellas. Acceso rápido al menú para activar el modo contraído. Configuración: El modo contraído está deshabilitado de forma predeterminada y se puede habilitar configurando: setting(editor.inlineSuggest.edits.showCollapsed:true) O puedes habilitarlo o deshabilitarlo en el menú indicador de margen del editor. Copilot Vision (Vista previa) Estamos implementando rápidamente soporte de visión de extremo a extremo en esta versión de Copilot Chat. Esto te permite adjuntar imágenes e interactuar con ellas en solicitudes de chat. Por ejemplo, si encuentras un error durante la depuración, adjunta una captura de pantalla de VS Code y pídele a Copilot que te ayude a resolver el problema. También puedes adjuntar una maqueta de UI y dejar que Copilot proporcione algo de HTML y CSS para implementar la maqueta. Puedes adjuntar imágenes de varias maneras: Arrastra y suelta imágenes desde tu sistema operativo o la vista del Explorador Pega una imagen desde el portapapeles Adjunta una captura de pantalla de la ventana de VS Code (selecciona el botón de clip 📎 > Captura de pantalla de la ventana) Se muestra una advertencia si la plantilla seleccionada actualmente no tiene la capacidad para manejar el tipo de archivo. El único modelo soportado por el momento será GPT 4o, pero pronto también se lanzará soporte para adjuntar imágenes con Claude 3.5 Sonnet y Gemini 2.0 Flash. Los tipos de imágenes admitidos actualmente son JPEG/JPG, PNG, GIF y WEBP. Disponibilidad general de instrucciones personalizadas Las instrucciones personalizadas te permiten adaptar GitHub Copilot para proporcionar respuestas de chat y sugerencias de código en función de cómo trabajan tú y tu equipo. Describe tus requisitos específicos en formato Markdown en un archivo .github/copilot-instructions.md en tu espacio de trabajo. En este hito, estamos haciendo que las instrucciones personalizadas estén generalmente disponibles con .github/copilot-instructions.md. Asegúrate de que la configuración de VS Code setting(github.copilot.chat.codeGeneration.useInstructionFiles) esté habilitada y Copilot utilizará esas instrucciones al generar respuestas. github.copilot.chat.codeGeneration.useInstructionFiles Obtén más información sobre instrucciones personalizadas en Copilot. Mejoras en el descarte de cambios no rastreados A lo largo de los años, recibimos varios informes de pérdida de datos porque al descartar un archivo no rastreado se eliminaba de forma permanente, a pesar de que VS Code mostraba un cuadro de diálogo modal que dejaba claro que el archivo se eliminaría definitivamente. A partir de ahora, descartar un archivo sin seguimiento moverá ese archivo a la Papelera de reciclaje cuando sea posible, para que lo puedas recuperar fácilmente. Puedes deshabilitar esta funcionalidad utilizando la configuración setting(git.discardUntrackedChangesToTrash). Gancho de confirmación para diagnósticos (experimental) En este hito, presentamos un nuevo gancho de confirmación que te solicita que resuelvas cualquier diagnóstico sin resolver para los archivos modificados. Se trata de una función experimental que puedes habilitar usando la configuración: setting(git.diagnosticsCommitHook.Enabled:true) Por defecto, el gancho de confirmación solicita cualquier diagnóstico de nivel de error, pero las fuentes y niveles se pueden personalizar utilizando la configuración: setting(git.diagnosticsCommitHook.Sources) ¡Pruébalo y cuéntanos qué te parece! Accesibilidad en ediciones Copilot Hemos hecho las Ediciones de Copilot mucho más accesibles. Ahora hay señales sonoras para archivos con modificaciones y para regiones alteradas (inserciones, modificaciones y eliminaciones). El visualizador de diferencias accesible está disponible para archivos modificados. Al igual que nuestros editores de diferencias, selecciona kb(chatEditor.action.showAccessibleDiffView) para activarlo. Variable de título de ventana activeEditorState Tenemos una nueva variable setting(window.title) llamada activeEditorState que te indica información del editor, como el estado modificado, la cantidad de problemas y cuándo un archivo tiene ediciones de Copilot pendientes para los usuarios de lectores de pantalla. Cuando estás en el modo optimizado para lectores de pantalla, esto se adjunta de manera predeterminada y lo puedes desactivar con: setting(accessibility.windowTitleOptimized:false) Barra de título personalizada en Linux La barra de título personalizada ahora está habilitada de forma predeterminada en Linux. Esta barra de título te brinda acceso a los controles de diseño, al menú de Copilot y más. Siempre puedes volver a las decoraciones de título nativas, ya sea desde el menú contextual de la barra de título personalizada o configurando setting(window.titleBarStyle) en native. Agradecemos tus comentarios sobre esta experiencia y ya estamos trabajando para mejorarla para futuros hitos, en función de lo que nos cuentes. Disponibilidad del modelo En esta versión, hemos agregado más modelos para elegir al usar Copilot. Las siguientes plantillas ahora están disponibles en el selector de plantillas en Visual Studio Code y en el chat en github.com: GPT 4.5 (versión preliminar): el último modelo de OpenAI, GPT-4.5, ahora está disponible en GitHub Copilot Chat para los usuarios de Copilot Enterprise. GPT-4.5 es un modelo de lenguaje grande diseñado con capacidades avanzadas en intuición, estilo de escritura y amplio conocimiento. Obtén más información sobre la disponibilidad del modelo GPT-4.5 en la publicación del blog de GitHub. Claude 3.7 Sonnet (vista previa): Claude 3.7 Sonnet ya está disponible para todos los clientes con planes pagos de Copilot. Este nuevo modelo de Sonnet admite los modos de pensamiento y de no pensamiento en Copilot. En las pruebas iniciales, vimos mejoras particularmente fuertes en los escenarios de agentes. Obtén más información sobre la disponibilidad del modelo Claude 3.7 Sonnet en la publicación del blog de GitHub.Referencing a file in GitHub Copilot for Visual Studio
A project never consists of one single file. In fact, most applications have multiple code files, as well as additional configuration files, test files, data and other helpers. In the new video we just posted, Gwyn "GPS" Peña-Siguenza shows how Copilot uses the "#" shortcut to add one or more files to the context.Using the "slash test" command in GitHub Copilot for Visual Studio
Another example of using "slash commands" in GitHub Copilot for Visual Studio in this new post. Gwyn "GPS" Peña-Siguenza shows here how to implement a new unit test in less than a minute and run it in the Visual Studio test runner.3.6KViews0likes0Comments