gwyneth peña-siguenza
7 TopicsReferencing a file in GitHub Copilot for Visual Studio
A project never consists of one single file. In fact, most applications have multiple code files, as well as additional configuration files, test files, data and other helpers. In the new video we just posted, Gwyn "GPS" Peña-Siguenza shows how Copilot uses the "#" shortcut to add one or more files to the context.Using the "slash test" command in GitHub Copilot for Visual Studio
Another example of using "slash commands" in GitHub Copilot for Visual Studio in this new post. Gwyn "GPS" Peña-Siguenza shows here how to implement a new unit test in less than a minute and run it in the Visual Studio test runner.3.5KViews0likes0CommentsLevel Up Your Python Game with Generative AI Free Livestream Series This October!
If you've been itching to go beyond basic Python scripts and dive into the world of AI-powered applications, this is your moment. Join Pamela Fox and Gwyneth Peña-Siguenza Gwthrilled to announce a brand-new free livestream series running throughout October, focused on Python + Generative AI and this time, we’re going even deeper with Agents and the Model Context Protocol (MCP). Whether you're just starting out with LLMs or you're refining your multi-agent workflows, this series is designed to meet you where you are and push your skills to the next level. 🧠 What You’ll Learn Each session is packed with live coding, hands-on demos, and real-world examples you can run in GitHub Codespaces. Here's a taste of what we’ll cover: 🎥 Why Join? Live coding: No slides-only sessions — we build together, step by step. All code shared: Clone and run in GitHub Codespaces or your local setup. Community support: Join weekly office hours and our AI Discord for Q&A and deeper dives. Modular learning: Each session stands alone, so you can jump in anytime. 🔗 Register for the full series 🌍 ¿Hablas español? We’ve got you covered! Gwyneth Peña-Siguenza will be leading a parallel series in Spanish, covering the same topics with localized examples and demos. 🔗 Regístrese para la serie en español Whether you're building your first AI app or architecting multi-agent systems, this series is your launchpad. Come for the code, stay for the community — and leave with a toolkit that scales. Let’s build something brilliant together. 💡 Join the discussions and share your exprience at the Azure AI Discord CommunityActualizaciones en Visual Studio Code 1.98
La versión 1.98 de Visual Studio Code ya está disponible y llega con una serie de novedades que llevarán tu experiencia de desarrollo al siguiente nivel. Entre los principales destaques se encuentran nuevas integraciones avanzadas con la inteligencia artificial de GitHub Copilot, como el Modo Agente (en vista previa), Copilot Edits para notebooks y el innovador Copilot Vision, que permite interactuar con imágenes directamente en las conversaciones de chat. Si quieres consultar todas las actualizaciones en detalle, visita la página de Novedades en el sitio oficial. Insiders: ¿Te gustaría probar estas funcionalidades antes que nadie? Descarga la versión Insiders y accede a los recursos más recientes en cuanto estén disponibles. Copilot Agent Mode (Vista previa) El Modo Agente de Copilot (vista previa) transforma la interacción con tu código: busca automáticamente el contexto dentro del proyecto, sugiere comandos en la terminal y edita archivos de forma autónoma. ¡Así, puedes automatizar tareas completas! Puntos destacados: Comandos de terminal visibles en línea, con opción de editarlos antes de ejecutarlos. Acciones de deshacer/rehacer específicas para las ediciones realizadas por el agente. Integración con tareas de compilación automáticas (configurable). Copilot Edits en Notebooks (Vista previa) Ahora es posible editar notebooks directamente con Copilot. Esto facilita el flujo de trabajo para científicos de datos y profesionales que trabajan con documentación técnica. Creación, modificación y eliminación de celdas. Soporte completo para diferentes tipos de celdas. Actualización de la interfaz de usuario La interfaz de Ediciones fue rediseñada para mejorar la experiencia al revisar archivos modificados. Ahora los archivos aparecen como archivos adjuntos comunes, y la lista de archivos modificados se muestra justo arriba del chat. IntelliSense en la terminal (Vista previa) Una verdadera revolución para quienes disfrutan trabajar en la terminal: IntelliSense ahora funciona directamente en el terminal de VS Code. Principales beneficios: Sugerencias inteligentes para bash, zsh, fish y PowerShell. Autocompletado para comandos como git, npm, brew, ssh y muchos más. Integración con branches de Git, CDPATH y alias personalizados. Autocompletado al usar git checkout, ¡más rápido que nunca! Activa el Terminal IntelliSense y lleva tu productividad al siguiente nivel: "terminal.integrated.suggest.enabled": true Próximas Sugerencias de Edición (Vista previa) Copilot ahora ofrece próximas sugerencias de edición (NES), haciendo tu flujo de trabajo aún más fluido. Con el modo contraído, te enfocas solo en lo que realmente importa: Las sugerencias aparecen de manera discreta en el margen. Se activan solo cuando decides navegar hacia ellas. Acceso rápido al menú para activar el modo contraído. Configuración: El modo contraído está deshabilitado de forma predeterminada y se puede habilitar configurando: setting(editor.inlineSuggest.edits.showCollapsed:true) O puedes habilitarlo o deshabilitarlo en el menú indicador de margen del editor. Copilot Vision (Vista previa) Estamos implementando rápidamente soporte de visión de extremo a extremo en esta versión de Copilot Chat. Esto te permite adjuntar imágenes e interactuar con ellas en solicitudes de chat. Por ejemplo, si encuentras un error durante la depuración, adjunta una captura de pantalla de VS Code y pídele a Copilot que te ayude a resolver el problema. También puedes adjuntar una maqueta de UI y dejar que Copilot proporcione algo de HTML y CSS para implementar la maqueta. Puedes adjuntar imágenes de varias maneras: Arrastra y suelta imágenes desde tu sistema operativo o la vista del Explorador Pega una imagen desde el portapapeles Adjunta una captura de pantalla de la ventana de VS Code (selecciona el botón de clip 📎 > Captura de pantalla de la ventana) Se muestra una advertencia si la plantilla seleccionada actualmente no tiene la capacidad para manejar el tipo de archivo. El único modelo soportado por el momento será GPT 4o, pero pronto también se lanzará soporte para adjuntar imágenes con Claude 3.5 Sonnet y Gemini 2.0 Flash. Los tipos de imágenes admitidos actualmente son JPEG/JPG, PNG, GIF y WEBP. Disponibilidad general de instrucciones personalizadas Las instrucciones personalizadas te permiten adaptar GitHub Copilot para proporcionar respuestas de chat y sugerencias de código en función de cómo trabajan tú y tu equipo. Describe tus requisitos específicos en formato Markdown en un archivo .github/copilot-instructions.md en tu espacio de trabajo. En este hito, estamos haciendo que las instrucciones personalizadas estén generalmente disponibles con .github/copilot-instructions.md. Asegúrate de que la configuración de VS Code setting(github.copilot.chat.codeGeneration.useInstructionFiles) esté habilitada y Copilot utilizará esas instrucciones al generar respuestas. github.copilot.chat.codeGeneration.useInstructionFiles Obtén más información sobre instrucciones personalizadas en Copilot. Mejoras en el descarte de cambios no rastreados A lo largo de los años, recibimos varios informes de pérdida de datos porque al descartar un archivo no rastreado se eliminaba de forma permanente, a pesar de que VS Code mostraba un cuadro de diálogo modal que dejaba claro que el archivo se eliminaría definitivamente. A partir de ahora, descartar un archivo sin seguimiento moverá ese archivo a la Papelera de reciclaje cuando sea posible, para que lo puedas recuperar fácilmente. Puedes deshabilitar esta funcionalidad utilizando la configuración setting(git.discardUntrackedChangesToTrash). Gancho de confirmación para diagnósticos (experimental) En este hito, presentamos un nuevo gancho de confirmación que te solicita que resuelvas cualquier diagnóstico sin resolver para los archivos modificados. Se trata de una función experimental que puedes habilitar usando la configuración: setting(git.diagnosticsCommitHook.Enabled:true) Por defecto, el gancho de confirmación solicita cualquier diagnóstico de nivel de error, pero las fuentes y niveles se pueden personalizar utilizando la configuración: setting(git.diagnosticsCommitHook.Sources) ¡Pruébalo y cuéntanos qué te parece! Accesibilidad en ediciones Copilot Hemos hecho las Ediciones de Copilot mucho más accesibles. Ahora hay señales sonoras para archivos con modificaciones y para regiones alteradas (inserciones, modificaciones y eliminaciones). El visualizador de diferencias accesible está disponible para archivos modificados. Al igual que nuestros editores de diferencias, selecciona kb(chatEditor.action.showAccessibleDiffView) para activarlo. Variable de título de ventana activeEditorState Tenemos una nueva variable setting(window.title) llamada activeEditorState que te indica información del editor, como el estado modificado, la cantidad de problemas y cuándo un archivo tiene ediciones de Copilot pendientes para los usuarios de lectores de pantalla. Cuando estás en el modo optimizado para lectores de pantalla, esto se adjunta de manera predeterminada y lo puedes desactivar con: setting(accessibility.windowTitleOptimized:false) Barra de título personalizada en Linux La barra de título personalizada ahora está habilitada de forma predeterminada en Linux. Esta barra de título te brinda acceso a los controles de diseño, al menú de Copilot y más. Siempre puedes volver a las decoraciones de título nativas, ya sea desde el menú contextual de la barra de título personalizada o configurando setting(window.titleBarStyle) en native. Agradecemos tus comentarios sobre esta experiencia y ya estamos trabajando para mejorarla para futuros hitos, en función de lo que nos cuentes. Disponibilidad del modelo En esta versión, hemos agregado más modelos para elegir al usar Copilot. Las siguientes plantillas ahora están disponibles en el selector de plantillas en Visual Studio Code y en el chat en github.com: GPT 4.5 (versión preliminar): el último modelo de OpenAI, GPT-4.5, ahora está disponible en GitHub Copilot Chat para los usuarios de Copilot Enterprise. GPT-4.5 es un modelo de lenguaje grande diseñado con capacidades avanzadas en intuición, estilo de escritura y amplio conocimiento. Obtén más información sobre la disponibilidad del modelo GPT-4.5 en la publicación del blog de GitHub. Claude 3.7 Sonnet (vista previa): Claude 3.7 Sonnet ya está disponible para todos los clientes con planes pagos de Copilot. Este nuevo modelo de Sonnet admite los modos de pensamiento y de no pensamiento en Copilot. En las pruebas iniciales, vimos mejoras particularmente fuertes en los escenarios de agentes. Obtén más información sobre la disponibilidad del modelo Claude 3.7 Sonnet en la publicación del blog de GitHub.¡Curso oficial y gratuito de GenAI y Python! 🚀
¿Quieres aprender a usar modelos de IA generativa en tus aplicaciones de Python?Estamos organizando una serie de nueve transmisiones en vivo, en inglés y español, totalmente dedicadas a la IA generativa. Vamos a cubrir modelos de lenguaje (LLMs), modelos de embeddings, modelos de visión, y también técnicas como RAG, function calling y structured outputs. Además, te mostraremos cómo construir Agentes y servidores MCP, y hablaremos sobre seguridad en IA y evaluaciones, para asegurarnos de que tus modelos y aplicaciones generen resultados seguros. 🔗 Regístrate para toda la serie. Además de las transmisiones en vivo, puedes unirte a nuestras office hours semanales en el AI Foundry Discord de para hacer preguntas que no se respondan durante el chat. ¡Nos vemos en los streams! 👋🏻 Here’s your HTML converted into clean, readable text format (perfect for a newsletter, blog post, or social media caption): Modelos de Lenguaje 📅 7 de octubre, 2025 | 10:00 PM - 11:00 PM (UTC) 🔗 Regístrate para la transmisión en Reactor ¡Únete a la primera sesión de nuestra serie de Python + IA! En esta sesión, hablaremos sobre los Modelos de Lenguaje (LLMs), los modelos que impulsan ChatGPT y GitHub Copilot. Usaremos Python para interactuar con LLMs utilizando paquetes como el SDK de OpenAI y Langchain. Experimentaremos con prompt engineering y ejemplos few-shot para mejorar los resultados. También construiremos una aplicación full stack impulsada por LLMs y explicaremos la importancia de la concurrencia y el streaming en apps de IA orientadas al usuario. 👉 Si querés seguir los ejemplos en vivo, asegurate de tener una cuenta de GitHub. Embeddings Vectoriales 📅 8 de octubre, 2025 | 10:00 PM - 11:00 PM (UTC) 🔗 Regístrate para la transmisión en Reactor En la segunda sesión de Python + IA, exploraremos los embeddings vectoriales, una forma de codificar texto o imágenes como arrays de números decimales. Estos modelos permiten realizar búsquedas por similitud en distintos tipos de contenido. Usaremos modelos como la serie text-embedding-3 de OpenAI, visualizaremos resultados en Python y compararemos métricas de distancia. También veremos cómo aplicar cuantización y cómo usar modelos multimodales de embedding. 👉 Si querés seguir los ejemplos en vivo, asegurate de tener una cuenta de GitHub. Recuperación-Aumentada Generación (RAG) 📅 9 de octubre, 2025 | 10:00 PM - 11:00 PM (UTC) 🔗 Regístrate para la transmisión en Reactor En la tercera sesión, exploraremos RAG, una técnica que envía contexto al LLM para obtener respuestas más precisas dentro de un dominio específico. Usaremos distintas fuentes de datos —CSVs, páginas web, documentos, bases de datos— y construiremos una app RAG full-stack con Azure AI Search. Modelos de Visión 📅 14 de octubre, 2025 | 10:00 PM - 11:00 PM (UTC) 🔗 Regístrate para la transmisión en Reactor ¡La cuarta sesión trata sobre modelos de visión como GPT-4o y 4o-mini! Estos modelos pueden procesar texto e imágenes, generando descripciones, extrayendo datos, respondiendo preguntas o clasificando contenido. Usaremos Python para enviar imágenes a los modelos, crear una app de chat con imágenes e integrarlos en flujos RAG. 👉 Si querés seguir los ejemplos en vivo, asegurate de tener una cuenta de GitHub. Salidas Estructuradas 📅 15 de octubre, 2025 | 10:00 PM - 11:00 PM (UTC) 🔗 Regístrate para la transmisión en Reactor En la quinta sesión aprenderemos a hacer que los LLMs generen respuestas estructuradas según un esquema. Exploraremos el modo structured outputs de OpenAI y cómo aplicarlo para extracción de entidades, clasificación y flujos con agentes. 👉 Si querés seguir los ejemplos en vivo, asegurate de tener una cuenta de GitHub. Calidad y Seguridad 📅 16 de octubre, 2025 | 10:00 PM - 11:00 PM (UTC) 🔗 Regístrate para la transmisión en Reactor En la sexta sesión hablaremos sobre cómo usar IA de manera segura y evaluar la calidad de las salidas. Mostraremos cómo configurar Azure AI Content Safety, manejar errores en código Python y evaluar resultados con el SDK de Evaluación de Azure AI. Tool Calling 📅 21 de octubre, 2025 | 10:00 PM - 11:00 PM (UTC) 🔗 Regístrate para la transmisión en Reactor En la última semana de la serie, nos enfocamos en tool calling (function calling), la base para construir agentes de IA. Aprenderemos a definir herramientas en Python o JSON, manejar respuestas de los modelos y habilitar llamadas paralelas y múltiples iteraciones. 👉 Si querés seguir los ejemplos en vivo, asegurate de tener una cuenta de GitHub. Agentes de IA 📅 22 de octubre, 2025 | 10:00 PM - 11:00 PM (UTC) 🔗 Regístrate para la transmisión en Reactor ¡En la penúltima sesión construiremos agentes de IA! Usaremos frameworks como Langgraph, Semantic Kernel, Autogen, y Pydantic AI. Empezaremos con ejemplos simples y avanzaremos a arquitecturas más complejas como round-robin, supervisor, graphs y ReAct. Model Context Protocol (MCP) 📅 23 de octubre, 2025 | 10:00 PM - 11:00 PM (UTC) 🔗 Regístrate para la transmisión en Reactor Cerramos la serie con Model Context Protocol (MCP), la tecnología abierta más candente de 2025. Aprenderás a usar FastMCP para crear un servidor MCP local y conectarlo a chatbots como GitHub Copilot. También veremos cómo integrar MCP con frameworks de agentes como Langgraph, Semantic Kernel y Pydantic AI. Y, por supuesto, hablaremos sobre los riesgos de seguridad y las mejores prácticas para desarrolladores. ¿Querés que lo reformatee para publicación en Markdown (para blogs o repos) o en texto plano con emojis y separadores estilo redes sociales?Python + IA: Resumen y Recursos
Acabamos de concluir nuestra serie sobre Python + IA, un recorrido completo de nueve sesiones donde exploramos a fondo cómo usar modelos de inteligencia artificial generativa desde Python. Durante la serie presentamos varios tipos de modelos, incluyendo LLMs, modelos de embeddings y modelos de visión. Profundizamos en técnicas populares como RAG, tool calling y salidas estructuradas. Evaluamos la calidad y seguridad de la IA mediante evaluaciones automatizadas y red-teaming. Finalmente, desarrollamos agentes de IA con frameworks populares de Python y exploramos el nuevo Model Context Protocol (MCP). Para que puedas aplicar lo aprendido, todos nuestros ejemplos funcionan con GitHub Models, un servicio que ofrece modelos gratuitos a todos los usuarios de GitHub para experimentación y aprendizaje. Aunque no hayas asistido a las sesiones en vivo, ¡todavía puedes acceder a todos los materiales usando los enlaces de abajo! Si eres instructor, puedes usar las diapositivas y el código en tus propias clases. Python + IA: Modelos de Lenguaje Grandes (LLMs) 📺 Ver grabación En esta sesión exploramos los LLMs, los modelos que impulsan ChatGPT y GitHub Copilot. Usamos Python con paquetes como OpenAI SDK y LangChain, experimentamos con prompt engineering y ejemplos few-shot, y construimos una aplicación completa basada en LLMs. También explicamos la importancia de la concurrencia y el streaming en apps de IA. Diapositivas: aka.ms/pythonia/diapositivas/llms Código: python-openai-demos Guía de repositorio: video Python + IA: Embeddings Vectoriales 📺 Ver grabación En nuestra segunda sesión, aprendemos sobre los modelos de embeddings vectoriales, que convierten texto o imágenes en arreglos numéricos. Comparamos métricas de distancia, aplicamos cuantización y experimentamos con modelos multimodales. Diapositivas: aka.ms/pythonia/diapositivas/embeddings Código: vector-embedding-demos Guía de repositorio: video Python + IA: Retrieval Augmented Generation (RAG) 📺 Ver grabación Descubrimos cómo usar RAG para mejorar las respuestas de los LLMs añadiendo contexto relevante. Construimos flujos RAG en Python con distintas fuentes (CSVs, sitios web, documentos y bases de datos) y terminamos con una aplicación completa basada en Azure AI Search. Diapositivas: aka.ms/pythonia/diapositivas/rag Código: python-openai-demos Guía de repositorio: video Python + IA: Modelos de Visión 📺 Ver grabación Los modelos de visión aceptan texto e imágenes, como GPT-4o y GPT-4o mini. Creamos una app de chat con imágenes, realizamos extracción de datos y construimos un motor de búsqueda multimodal. Diapositivas: aka.ms/pythonia/diapositivas/vision Código: vector-embeddings Guía de repositorio: video Python + IA: Salidas Estructuradas 📺 Ver grabación Aprendemos a generar respuestas estructuradas con LLMs usando Pydantic BaseModel. Este enfoque permite validación automática de los resultados, útil para extracción de entidades, clasificación y flujos de agentes. Diapositivas: aka.ms/pythonia/diapositivas/salidas Código: python-openai-demos y entity-extraction-demos Guía de repositorio: video Python + IA: Calidad y Seguridad 📺 Ver grabación Analizamos cómo usar la IA de forma segura y cómo evaluar la calidad de las respuestas. Mostramos cómo configurar Azure AI Content Safety y usar el Azure AI Evaluation SDK para medir resultados de los modelos. Diapositivas: aka.ms/pythonia/diapositivas/calidad Código: ai-quality-safety-demos Guía de repositorio: video Python + IA: Tool Calling 📺 Ver grabación Exploramos el tool calling, base para crear agentes de IA. Definimos herramientas con esquemas JSON y funciones Python, manejamos llamadas paralelas y flujos iterativos. Diapositivas: aka.ms/pythonia/diapositivas/herramientas Código: python-openai-demos Guía de repositorio: video Python + IA: Agentes de IA 📺 Ver grabación Creamos agentes de IA con frameworks como el agent-framework de Microsoft y LangGraph, mostrando arquitecturas con múltiples herramientas, supervisores y flujos con intervención humana. Diapositivas: aka.ms/pythonia/diapositivas/agentes Código: python-ai-agents-demos Guía de repositorio: video Python + IA: Model Context Protocol (MCP) 📺 Ver grabación Cerramos la serie con MCP (Model Context Protocol), la tecnología más innovadora de 2025. Mostramos cómo usar el SDK de FastMCP en Python para crear un servidor MCP local, conectarlo a GitHub Copilot, construir un cliente MCP y conectar frameworks como LangGraph y agent-framework. También discutimos los riesgos de seguridad asociados. Diapositivas: aka.ms/pythonia/diapositivas/mcp Código: python-ai-mcp-demos Guía de repositorio: video Además Si tienen preguntas, por favor, en el canal #Espanol en nuestro Discord: https://aka.ms/pythonia/discord Todos los jueves tengo office hours: https://aka.ms/pythonia/horas Encuentra más tutoriales 100% en español sobre Python + AI en https://youtube.com/@lagps