Sam Ransbotham on Navigating the Nuances of AI: Beyond Hype and Mediocrity

Sam Ransbotham, a professor of business analytics at Boston College and host of the ‘Me, Myself and AI’ podcast, offers a pragmatic perspective on the evolving role of Artificial Intelligence. He observes a fascinating trend in his classroom: while some students are leveraging AI to achieve remarkable results, others fall into the trap of ‘phoning things into the machine,’ leading to a superficial engagement with the technology. Ransbotham emphasizes that the depth of understanding a user possesses directly correlates with the value derived from a tool. A cursory approach yields a rudimentary outcome, while deeper exploration unlocks greater potential.

Despite concerns about students prioritizing mediocrity—highlighting Boston College’s ‘Ever to Excel’ motto—Ransbotham maintains a positive outlook on AI’s potential. He argues that the technology’s true value often lies not in its output, but in the critical thinking it inspires. ‘The data gives better insights about what you’re doing, about the documents you have, and you can make a slightly better decision,’ he states, emphasizing the importance of questioning AI’s outputs, even when they seem ‘wrong’ or ‘ridiculous.’

Ransbotham draws parallels between the rise of Wikipedia and the current AI landscape. Just as Encyclopedia Britannica’s economic value diminished with the advent of Wikipedia, AI’s value extends beyond immediate, quantifiable results. He focuses on the ability of AI to provide new insights and encourage deeper analysis, framing the technology as a tool for ‘searching for the signal in the noise.’ Ultimately, Ransbotham advocates for a thoughtful and discerning approach to AI, recognizing its potential while guarding against the temptation of simply accepting superficial outcomes.

Amazon’s Massive Investment in Government AI Infrastructure

Amazon is set to invest up to $50 billion in a significant expansion of its AI and advanced computing infrastructure, specifically tailored for U.S. government agencies.

This ambitious project, slated to begin in 2026, will dramatically increase Amazon Web Services’ (AWS) data center capacity across Top Secret, AWS Secret, and AWS GovCloud (US) regions – environments designed for handling classified and sensitive workloads.

Federal agencies will gain access to powerful AI tools, including Amazon SageMaker for custom model training and Amazon Bedrock for deploying and managing AI models, as well as building advanced agents.

The new centers will be equipped with Amazon’s proprietary Trainium AI chips, alongside NVIDIA hardware, enabling a substantial boost in computing power.

This investment aims to accelerate breakthroughs in government operations, spanning scientific research, intelligence analysis, and critical decision-making in areas such as disaster response and climate modeling. As stated by AWS CEO Matt Garman, “Our investment in purpose-built government AI and cloud infrastructure will fundamentally transform how federal agencies leverage supercomputing.” Amazon first introduced government-specific cloud infrastructure in 2011 and now supports over 11,000 government agencies worldwide.

Bezos Стимулює Повернення Startup-Духу: Нові Ініціативи Amazon та Debates про Retrofit Технології в Старих Автомобілях

Цього тижня в подкасті GeekWire: Джефф Безос знову в режимі startup (частково) з Project Prometheus – інвестицією в розмірі $6,2 мільярда в AI для фізичного світу, яка миттєво стала однією з найбільш обговорюваних нових компаній у технологічній сфері. Ми розбираємо, що це насправді означає, чому місцезнаходження компанії залишається загадковим, та як це віддзеркалює епоху, коли Безос регулярно робив великі ставки з Сіетла.

Далі ми розглядаємо останній експеримент Amazon: встановлення кіосків для повернення посилок всередині магазинів Goodwill у регіоні Сіетла. Це невеликий пілотний проект, але він знову змушує згадувати ранні дні, коли дивакуваті експерименти Amazon з’являлися нізвідки.

І, нарешті, Тотт намагається виправдати свій план модернізації улюбленого 2007 Toyota Camry з CarPlay, Android Auto та заднім камерою – тоді як Джон ставить під сумнів логіку витрати тисяч доларів на старий автомобіль.

Все це, плюс таємничий светр Microsoft, трохи ностальгії за Сіетлом та погляд уперед до наступного тижня’s подкасту у співпраці з Me, Myself and AI з MIT Sloan Management Review.

З GeekWire co-founders John Cook та Todd Bishop. Підписуйтесь на GeekWire в Apple Podcasts, Spotify, або де б ви слухали.

Washington Lawmakers Consider AI Bargaining Rights for Public Employees

Washington state lawmakers are set to revisit the possibility of requiring government employers to bargain with public sector unions over the adoption of artificial intelligence technology. House Bill 1622 aims to mandate this bargaining if AI affects wages or worker performance evaluations.

The bill, championed by Rep. Lisa Parshley, previously stalled in the Senate after initial support in the House. Opponents, including business groups and city officials, argued the measure would skew the balance of power and potentially delay workplace innovation.

‘Public sector bargaining covers wages, hours and working conditions and agencies are already required to bargain any change that touches those areas, but without legislation, that bargaining happens after implementation,’ said Washington State Labor Council President April Sims. ‘With legislation like House Bill 1622, it would happen before.’

A September directive from the state’s Office of Financial Management requires union-represented state employees six months’ notice of any use of generative AI if it ‘will result in a consequential change in employee wages, hours, or working conditions.’

The debate reflects a broader conversation about a federal versus state approach to regulating AI. While President Donald Trump is reportedly considering an executive order to sue states that pass AI regulations, Washington state’s focus is on incorporating worker input into the process. This includes establishing human review for systems used in employment-related decisions.

Ai2 представила Olmo 3: Відкриті моделі, що конкурують з Meta, DeepSeek та іншими

The Allen Institute for AI (Ai2) представила нову генерацію своїх флагманських великих мовних моделей, розроблені для більш прямої конкуренції з галузевими та академічними лідерами. Seattle-based некомерційна організація представила Olmo 3, колекцію відкритих мовних моделей, яка, за заявами, перевершує повністю відкриті моделі, такі як Stanford’s Marin та комерційні відкриті моделі, як Meta’s Llama 3. Раніше версії Olmo були в основному призначені для наукових цілей, для розуміння того, як будуються AI моделі. З Olmo 3, Ai2 розширює свій фокус, позиціонуючи моделі як потужні, ефективні та прозорі системи, придатні для використання у реальному світі, включаючи комерційні застосування.

«Olmo 3 доводить, що відкритість та продуктивність можуть розвиватися разом», – сказав Ali Farhadi, CEO Ai2, у прес-релізі, опублікованому в четвер, що оголошував про нові моделі.

Це частина ширшої еволюції в AI світі. Протягом останнього року все більш потужні відкриті моделі з компаній та університетів — включаючи Meta, DeepSeek, Qwen, та Stanford — почали конкурувати з продуктивністю власних систем великих технологічних компаній.

Багато з останніх відкритих моделей розроблені для демонстрації їхнього міркування крок за кроком — часто звані «моделі, що «думлять»», що стало ключовим критерієм у цій галузі.

Ai2 випускає Olmo 3 у кількох версіях: Olmo 3 Base (основний базовий фундамент); Olmo 3 Instruct (настроєний для дотримання інструкцій користувача); Olmo 3 Think (розроблений для демонстрації більш явного міркування); та Olmo 3 RL Zero (експериментальна модель, навчена за допомогою навчання з підкріпленням).

Відкриті моделі набирають обертів завдяки стартапам та бізнесу, які хочуть більше контролю над витратами та даними, а також чіткішу видимість того, як працює технологія. Ai2 йде далі, випускаючи повний «потік моделі» позаду Olmo 3 — серію знімків, що показує, як модель прогресувала на кожному етапі навчання. Крім того, оновлений OlmoTrace інструмент дозволить дослідникам пов’язувати міркування моделі назад до конкретних даних та рішень щодо навчання, які вплинули на них.

Що стосується енергії та ефективності витрат, Ai2 заявляє, що новий базовий Olmo 3 в 2,5 рази більш ефективний для навчання, ніж Meta’s Llama 3.1 (на основі GPU-годин на токен, порівнюючи Olmo 3 Base з Meta’s 8B post-trained modelem), та навчався на значно менше токенів, в деяких випадках в шість разів менше, ніж у аналогічних моделях.

Крім того, Olmo 3 може читати або аналізувати набагато довші документи одночасно, з підтримкою вхідних даних до 65 000 токенів, що приблизно дорівнює довжині розділу короткої книги.

Заснована в 2014 році пізнім засновник Microsoft Paul Allen, Ai2 протягом тривалого часу функціонувала як дослідницька некомерційна організація, розробляючи відкриті інструменти та моделі, тоді як більші комерційні лабораторії домінували в центрі уваги. Інститут зробив серію кроків цього року, щоб підняти свій профіль, зберігаючи при цьому свою місію розвитку AI для вирішення найбільших проблем світу. В серпні Ai2 було обрано Національним Науковим Фондом та Nvidia для ініціативи вартістю 152 мільйони доларів для створення повністю відкритих багатомодальних AI моделей для наукових досліджень, позиціонуючи інститут для того, щоб бути ключовим учасником національного AI-скелету. Він також є ключовим технічним партнером для Cancer AI Alliance, допомагаючи Fred Hutch та іншим провідним центрам раку в США навчати AI-моделі на клінічних даних, не розкриваючи пацієнтських записів.

Olmo 3 доступний зараз на Hugging Face та Ai2’s model playground.

Palo Alto Networks Інвестує 3,3 мільярда доларів у Chronosphere – Нова Ера Обсервабельності

Cybersecurity-гігант Palo Alto Networks оголосив про придбання Chronosphere на суму 3,35 мільярда доларів у середу. Chronosphere, заснована у 2019 році, спеціалізується на розробці програмного забезпечення для обсервабельності, яке допомагає інженерним командам швидко виявляти проблеми та підтримувати роботу хмарних додатків. Palo Alto Networks вважає, що ця операція допоможе їм задовольнити величезні вимоги до даних, які створюються сучасними робочими навантаженнями на основі штучного інтелекту.

CEO Chronosphere Martin Mao та CTO Rob Skillington вперше зустрілися в районі Сіетла, працюючи в Microsoft, де вони займалися перенесенням Office у формат Office 365 на основі хмари. Обидва пізніше приєдналися до інженерних команд Uber. Штаб-квартира компанії розташована в Нью-Йорку, але Mao залишається в регіоні Сіетл, разом із кількома співробітниками Chronosphere. Команда, включаючи Mao та Skillington, приєднається до Palo Alto після завершення операції.

Chronosphere має понад 250 співробітників. Під час телефонної конференції з аналітиками, CEO Palo Alto Networks Nikesh Arora описав Chronosphere як «одне з найшвидше зростаючих програмних компаній в історії». Компанія має серед своїх клієнтів дві з найпопулярніших великих мовних моделей (LLM).

Arora зазначив, що існуючі інструменти обсервабельності не були розроблені для епохи штучного інтелекту, і повна обсервабельність для багатьох організацій стала надто дорогою. Chronosphere може забезпечити обсервабельність за одну третину вартості інших провідних рішень. Він також додав, що Chronosphere «змінив модель обсервабельності» завдяки поєднанню відкритого коду та архітектурних методів.

Оцінюючи обсервабельні та постачальників даних-пайплайнів, команда Palo Alto Networks була вражена інженерними здібностями Chronosphere. «Загалом, інженерам зазвичай занадто пишаються, щоб розповісти вам, що хтось інший хороший», — сказав Arora. «Але наша команда повернулася та сказала: «Це найкращі інженери, яких ми коли-небудь зустрічали».

Chronosphere повідомляє про понад 160 мільйонів доларів річного повторюваного доходу, який зростає у тризначних показниках, згідно з Palo Alto. Chronosphere «залишиться значною мірою незалежною» після завершення угоди наступного року. «Вони по суті є групою надзвичайно розумних інженерів і передових інженерів, а також кількома продавцями», — сказав Arora. «Ми надамо їм підтримку, представляючи правильних клієнтів у дуже цілеспрямованому ключі».

Інвесторами Chronosphere є General Atlantic; Greylock Partners; Lux Capital; Addition; Founders Fund; Spark Capital; та Glynn Capital.

UJET Розширює Можливості AI-Підтримки за допомогою Придбання Spiral

UJET, компанія з Сан-Франциско, що спеціалізується на розробці та продажу AI-технологій для контакт-центрів, оголосила про придбання Spiral, серійної компанії з Сіетла, яка надає послуги аналізу розмов з клієнтами.

Деталі угоди не розголошуються. Spiral продовжить свою діяльність під назвою “Spiral by UJET”, забезпечуючи підтримку своїх клієнтів як незалежне рішення, водночас інтегруючись у хмарну контакт-центрову платформу UJET.

Spiral, заснована в 2018 році колишніми інженерами Amazon – Еленою Жижимонтовою та Енн Ділосою, використовує штучний інтелект для автоматичного виявлення та класифікації проблем, що виникають у телефонних дзвінках, чатах, електронних листах, опитуваннях та соціальних мережах. Технологія допомагає компаніям виявляти проблеми з продуктами та підтримкою.

Серед клієнтів Spiral – Owlet, Whitepages та Turo. “Придбання Spiral UJET забезпечить бізнесам єдиний огляд усіх розмов з клієнтами для більш проактивного та персоналізованого обслуговування”, – зазначив генеральний директор UJET Василі Тріант.

Раніше Spiral залучила понад 3 мільйони доларів інвестицій від Trilogy Equity Partners, Techstars та Alexa Accelerator. Spiral працює в перспективній ніші стартапів, що застосовують AI до аналізу відгуків клієнтів.

Microsoft Розробляє ‘Agent 365’: Централізоване Управління Автономними AI Агентами

Microsoft розробляє ‘Agent 365’ – централізовану систему управління, яка дозволить компаніям ефективно управляти та захищати їхніх автономних AI агентів. Це рішення призначене для вирішення проблеми “тіньових” AI інструментів, які все частіше використовують працівники.

Під час конференції Ignite, Satya Nadella підкреслив, що компанія переходить на модель управління продуктами та інфраструктурою для автономних AI агентів, а не лише для людей. Основна ідея полягає в наданні унікального ідентифікатора кожному агенту.

‘Agent 365’ функціонує як центральний дашборд всередині Microsoft 365 Admin Center, забезпечуючи контроль за діяльністю агентів, включаючи агентів від Microsoft та інших компаній. Це дозволить компаніям використовувати існуючі системи безпеки для відстеження, контролю доступу та захисту від несанкціонованого доступу або витоку конфіденційної інформації.

Ця ініціатива відповідає на зростаючу проблему “тіньових” AI, коли співробітники використовують неконтрольовані AI інструменти. Оцінки аналітиків свідчать про очікуваний ріст ринку AI агентів до 1.3 мільярда одиниць до 2028 року, що прогнозується зростання з $7.8 млрд до понад $50 млрд до 2030 року. Google, Amazon та Salesforce також пропонують власні платформи для корпоративного використання.

‘Agent 365’ використовує Microsoft’s унікальну позицію в корпоративних системах ідентифікації та безпеки. Система інтегрується з Microsoft Entra (раніше Active Directory), забезпечуючи ідентифікацію кожного агента.

Amazon’s Surprise Indie Hit: Kiro Launches Broadly in Bid to Reshape AI-Powered Software Development

Can the software development hero conquer the “AI Slop Monster” to uncover the gleaming, fully functional robot buried beneath the coding chaos?

That was the storyline unfolding inside a darkened studio at Seattle Center last week, as Amazon’s Kiro software development system was brought to life for a promotional video. Instead of product diagrams or keynote slides, a crew from Seattle’s Packrat creative studio used action figures on a miniature set to create a stop-motion sequence. In this tiny dramatic scene, Kiro’s ghost mascot played the role that the product aims to fill in real life — a stabilizing force that brings structure and clarity to AI-assisted software development.

No, this is not your typical Amazon Web Services product launch.Kiro (pronounced KEE-ro) is Amazon’s effort to rethink how developers use AI. It’s an integrated development environment that attempts to tame the wild world of vibe coding, the increasingly popular technique that creates working apps and websites from natural language prompts.

But rather than simply generating code from prompts, Kiro breaks down requests into formal specifications, design documents, and task lists. This spec-driven development approach aims to solve a fundamental problem with vibe coding: AI can quickly generate prototypes, but without structure or documentation, that code becomes unmaintainable.

It’s part of Amazon’s push into AI-powered software development, expanding beyond its AWS Code Whisperer tool to compete more aggressively against rivals such as Microsoft’s GitHub Copilot, Google Gemini Code Assist, and open-source AI coding assistants.

The market for AI-powered development tools is booming. Gartner expects AI code assistants to become ubiquitous, forecasting that 90% of enterprise software engineers will use them by 2028, up from less than 14% in early 2024. A July 2025 report from Market.us projects the AI code assistant market will grow from $5.5 billion in 2024 to $47.3 billion by 2034.

Amazon launched Kiro in preview in July, to a strong response. Positive early reviews were tempered by frustration from users unable to gain access. Capacity constraints have since been resolved, and Amazon says more than 250,000 developers used Kiro in the first three months.

The internet is “full of prototypes that were built with AI,” said Deepak Singh, Amazon’s vice president of developer agents and experiences, in an interview last week. The problem, he explained, is that if a developer returns to that code two months later, or hands it to a teammate, “they have absolutely no idea what prompts led to that. It’s gone.”

Kiro solves that problem by offering two distinct modes of working. In addition to “vibe mode,” where they can quickly prototype an idea, Kiro has a more structured “spec mode,” with formal specifications, design documents, and task lists that capture what the software is meant to do.

Now, the company is taking Kiro out of preview into general availability, rolling out new features and opening the tool more broadly to development teams and companies.

As a product of Amazon’s cloud division, Kiro is unusual in that it’s relevant well beyond the world of AWS. It works across languages, frameworks, and deployment environments. Developers can build in JavaScript, Python, Go, or other languages and run applications anywhere — on AWS, other cloud platforms, on-premises, or locally.

That flexibility and broader reach are key reasons Amazon gave Kiro a standalone brand rather than presenting it under the AWS or Amazon umbrella. It was a “very different and intentional approach,” said Julia White, AWS chief marketing officer, in an interview at the video shoot. The idea was to defy the assumptions that come with the AWS name, including the idea that Amazon’s tools are built primarily for its own cloud.

White, a former Microsoft and SAP executive who joined AWS as chief marketing officer a year ago, has been working on the division’s fundamental brand strategy and calls Kiro a “wonderful test bed for how far we can push it.” She said those lessons are starting to surface elsewhere across AWS as the organization looks to “get back to that core of our soul.”

With developers, White said, “you have to be incredibly authentic, you need to be interesting. You need to have a point of view, and you can never be boring.” That philosophy led to the fun, quirky, and irreverent approach behind Kiro’s ghost mascot and independent branding. The marketing strategy for Kiro caused some internal hesitation, White recalled. People inside the company wondered whether they could really push things that far.

Her answer was emphatic: “Yep, yep, we can. Let’s do it.”

Amazon’s Kiro has caused a minor stir in Seattle media circles, where the KIRO radio and TV stations, pronounced like Cairo, have used the same four letters stretching back into the last century. People at the stations were not exactly thrilled by Amazon’s naming choice. With its core audience of developers, however, the product has struck a nerve in a positive way. During the preview period, Kiro handled more than 300 million requests and processed trillions of tokens as developers explored its capabilities, according to stats provided by the company. Rackspace used Kiro to complete what they estimated as 52 weeks of software modernization in three weeks, according to Amazon executives. SmugMug and Flickr are among other companies espousing the virtues of Kiro’s spec-driven development approach. Early users are posting in glowing terms about the efficiencies they’re seeing from adopting the tool.

Kiro uses a tiered pricing model based on monthly credits: a free plan with 50 credits, a Pro plan at $20 per user per month with 1,000 credits, a Pro+ plan at $40 with 2,000 credits, and a Power tier at $200 with 10,000 credits, each with pay-per-use overages. With the move to general availability, Amazon says teams can now manage Kiro centrally through AWS IAM Identity Center, and startups in most countries can apply for up to 100 free Pro+ seats for a year’s worth of Kiro credits.

New features include property-based testing — a way to verify that generated code actually does what developers specified — and a new command-line interface in the terminal, the text-based workspace many programmers use to run and test their code. A new checkpointing system lets developers roll back changes or retrace an agent’s steps when an idea goes sideways, serving as a practical safeguard for AI-assisted coding.

Amit Patel, director of software engineering for Kiro, said the team itself is deliberately small — a classic Amazon “two-pizza team.” And yes, they’ve been using Kiro to build Kiro, which has allowed them to move much faster. Patel pointed to a complex cross-platform notification feature that had been estimated to take four weeks of research and development. Using Kiro, one engineer prototyped it the next day and shipped the production-ready version in a day and a half.

Patel said this reflects the larger acceleration of software development in recent years. “The amount of change,” he said, “has been more than I’ve experienced in the last three decades.”

Cisco Розширює Інвестиції в Генеративний Штучний Інтелект Завдяки Придбання Бізнесу NeuralFabric

Cisco оголосила про намір придбати NeuralFabric, стартап з Сіетла, заснований групою колишніх співробітників Microsoft, який розробляє програмне забезпечення для створення та запуску власних генеративних моделей штучного інтелекту. Конкретні фінансові умови угоди не розголошуються.

Ця операція підсилить ініціативу Cisco AI Canvas – середовище генеративного інтерфейсу та співпраці, яка була представлена на початку цього року.

Підкреслюючи досвід NeuralFabric у розповсюджених системах, навчанні моделей та гнучкому розгортанню, Cisco виділяє це як доповнення до свого існуючого AI-асистента, моделей кібербезпеки та стратегії даних.

DJ Sampath, віцепрезидент з програмного забезпечення та платформ AI, заявив, що стартап «розкрив вирішальний елемент цієї головоломки», створивши технологію, яка дозволяє компаніям розробляти власні дрібні мовні моделі, використовуючи власні дані в хмарі або на власних обчислювальних ресурсах.

NeuralFabric, розташована в Редмонді, була заснована у 2023 році колишнім інженером Microsoft Azure Weijie Lin (CEO), колишнім виконавчим директором Microsoft John deVadoss, підприємцем в галузі AI Jesus Rodriguez (president) та ветераном хмарних та безпекових технологій Mark Baciak (CTO), а також колишнім директором Microsoft Drew Gude (chief revenue officer) також вказаний як ранній виконувач.

Станом на оголошення у березні 2024 року, стартап зібрав не менше 5 мільйонів доларів інвестицій. Інвесторами є Collab+Currency, CMT Digital та New Form Capital.