Con una fuerte inversión en GPT-4, Microsoft ha llegado a un acuerdo exclusivo con OpenAI, el desarrollador de ChatGPT, para integrarlo con su propio motor de búsqueda: Bing.

Y dado que Bing también impulsó un puñado de otros motores de búsqueda, se descubrió que estaban aprovechando este acceso para crear sus propios chatbots de IA, impulsados ​​indirectamente por Bing Chatbot. Y Microsoft ahora les advierte que dejen de hacerlo ya que está fuera de su alcance de contacto.

Explotación del acceso a Bing para sus propios chatbots de IA

Bloomberg informa que Microsoft ha advertido a dos de sus socios de datos de Bing Search que dejen de explotar el acceso para alimentar sus propios chatbots de IA. Si bien no sabemos de qué dos empresas ha advertido Microsoft, ¡la mayoría de los socios que aprovechan los datos de Bing Search ya tienen sus chatbots!

Por ejemplo, DuckDuckGo presentó DuckAssist el mes pasado, que ofrece resúmenes generados por IA de Wikipedia y otras fuentes para ciertas búsquedas. You.com , por otro lado, tiene una función de chat de IA que brinda a los usuarios respuestas directas a preguntas simples. Neeva , otro motor de búsqueda que utiliza datos de Bing, tiene una herramienta similar impulsada por IA para generar resúmenes anotados.

Bueno, algunos de estos fueron promocionados para explotar el soporte de Bing Search para admitir sus propios chatbots de IA, ya que el último Bing viene integrado con el modelo de lenguaje GPT-4. Esta es la misma tecnología que impulsó ChatGPT, desarrollada por OpenAI.

Se dice que el nuevo modelo GPT-4 es más potente y cuidadoso con sus respuestas al público. Puede producir los datos más recientes e incluso crear imágenes y videos a partir de entradas de texto . Por lo tanto, aprovecharlo es mucho más lógico que construir otro similar.

Pero nuevamente, Microsoft ha gastado $10 mil millones para esta integración en su Bing Search, por lo que no quiere que otros lo usen, principalmente los chatbots rivales. Por lo tanto, supuestamente advirtió a algunos de sus socios que dejaran de usar el acceso de Bing para alimentar sus propios chatbots.

Citando esto como una violación de su acuerdo, Microsoft puede revocar el acceso en caso de que sea necesario. Además, dijo: “Seguiremos trabajando con ellos directamente y proporcionaremos cualquier información necesaria para encontrar un camino a seguir”.