TLDR: When working with LLMs, the risks for the L&D workflow and its impact on substantive learning are real:Hallucination — LLMs invent plausible-sounding facts that aren’t trueDrift — LLM outputs wander from your brief without clear constraintsGeneric-ness — LLMs surface that which is most common, leading to homogenisation and standardisation of “mediocre”Mixed pedagogical quality — LLMs do not produce outputs which are guaranteed to follow evidence-based practiceMis-calibrated trust — LLMs invite us to read guesswork as dependable, factual knowledge These aren’t edge cases or occasional glitches—they’re inherent to how AI / all LLMs function. Prediction machines can’t verify truth. Pattern-matching can’t guarantee validity. Statistical likelihood doesn’t equal quality.
Real inherent issue using AI for learning.

* get attached = encariñarse.
* Each and every one = todos y cada uno.
* 📌 complemento proposicional "to" = Indica dirección o acción como reacción del sujeto de la oración hacia el objeto de esta. Usualmente se usa para complementar a algunos verbos intransitivos ya que estos carecen de OD y por consecuencia de OI eso es porque estos verbos no indican una modificación ni beneficio al objeto de la oración. Solo indican un cambio de estado del sujeto en reacción a objeto.